1. 前言

Android提供了很多的多媒体接口,通常在java层,我们常用的就是AudioTrack和MediaPlayer进行音频播放。MediaPlayer不光可以播放音频,也可以播放视频,并支持少部分的解码。

而由于音视频通常计算量都很大,所以很多音视频方面的工作都会放在native层进行。Android在native层同样提供了一些组件来进行音频的播放和录制:

native部分的音频框架相对于java部分的音频框架来说,性能是更高的,所以如果你希望降低app的音频通路延迟(游戏等),基本上只能选择native。

本篇文章会分别使用三者,演示如何构建录制器和播放器,并实现低延迟的echo功能。

2. 工程准备

工程源码放在我的github上: FastPathAudioEcho

新建一个工程,并使其支持c++。

对于OpenSL ES和AAudio,这些库在系统中是被包含的,因此只要在CMakeLists中链接即可:

target_link_libraries( # Specifies the target library.
        native-lib
        OpenSLES
        aaudio
        # Links the target library to the log library
        # included in the NDK.
        ${log-lib})

至于oboe,它并未被包含在Android SDK中,因此需要到github上搜索,然后使用仓库或下载源码进行配置。地址是:Oboe-Google。编译方法也可以从这找到。
由于使用仓库对构建工具版本有要求,因此我选择的是直接下载源码进行编译。下面是我的配置:

CMakeLists.txt,位置在源码的cpp文件夹中。

cmake_minimum_required(VERSION 3.4.1) file(GLOB CPP_FILES "./*.cpp", "./SLESEcho/*.cpp", "./AAudioEcho/*.cpp", "./OboeEcho/*.cpp") include_directories("./", "./SLESEcho/", "./AAudioEcho/", "./OboeEcho/") add_library( # Sets the name of the library. native-lib # Sets the library as a shared library. SHARED # Provides a relative path to your source file(s). ${CPP_FILES}) # Set the path to the Oboe directory. set (OBOE_DIR "D:\\workspace\\AndroidProject\\oboe") # Add the Oboe library as a subdirectory in your project. # add_subdirectory tells CMake to look in this directory to # compile oboe source files using oboe's CMake file. # ./oboe specifies where the compiled binaries will be stored add_subdirectory (${OBOE_DIR} ./oboe) # Specify the path to the Oboe header files. # This allows targets compiled with this CMake (application code) # to see public Oboe headers, in order to access its API. include_directories (${OBOE_DIR}/include) # Searches for a specified prebuilt library and stores the path as a # variable. Because CMake includes system libraries in the search path by # default, you only need to specify the name of the public NDK library # you want to add. CMake verifies that the library exists before # completing its build. find_library( # Sets the name of the path variable. log-lib # Specifies the name of the NDK library that # you want CMake to locate. # Specifies libraries CMake should link to your target library. You # can link multiple libraries, such as libraries you define in this # build script, prebuilt third-party libraries, or system libraries. target_link_libraries( # Specifies the target library. native-lib OpenSLES aaudio # Links the target library to the log library # included in the NDK. ${log-lib})

然后,指定一些常量和结构体放在一个头文件中,方便使用。

// Constants.h
#ifndef FASTPATHAUDIOECHO_CONSTANTS_H
#define FASTPATHAUDIOECHO_CONSTANTS_H
#include <iostream>
#include <stdlib.h>
#include <string.h>
#define NANO_SEC_IN_MILL_SEC 100000
struct AudioFrame{
    int64_t pts;
    int16_t *data;
    int32_t sampleCount;
    int32_t maxDataSizeInByte = 0;
    AudioFrame(int32_t dataLenInByte)
        this->maxDataSizeInByte = dataLenInByte;
        pts = 0;
        sampleCount = 0;
        data = (int16_t *)malloc(maxDataSizeInByte);
        memset(data, 0, maxDataSizeInByte);
    ~AudioFrame(){
        if(data != NULL)
            free(data);
#endif //FASTPATHAUDIOECHO_CONSTANTS_H

3. 低延迟音频原理及功能实现方案

官方文档分别在OpenSL ES和AAudio页面介绍了如何启用低延迟音频。总结起来共有以下四点:

  • 获取硬件最佳采样率
  • 获取硬件最佳buffer长度
  • 对框架启用低延迟模式
  • 使用回调函数而非客户端主动读取或写入数据

其中,最佳采样率和最佳buffer长度是针对硬件的。每个手机厂商的每款机型,可能由于硬件芯片的不同,芯片的原生采样率和音频buffer长度都不同,因此这两个数据需要程序运行时动态查询。使用硬件原生采样率和buffer长度的目的,就是避免系统中对音频数据进行的重采样或帧缓冲等操作。
而启用低延迟模式可以理解为,不要让系统在音频中添加效果。并且提高音频线程的优先级。

查询最佳采样率和buffer长度可以通过AudioManager进行:

val audioManager = getSystemService(Context.AUDIO_SERVICE) as AudioManager
val sampleRate = audioManager.getProperty(AudioManager.PROPERTY_OUTPUT_SAMPLE_RATE).toInt()
val framesPerBuffer = audioManager.getProperty(AudioManager.PROPERTY_OUTPUT_FRAMES_PER_BUFFER).toInt()

这个工程三种API的实现思路是一样的。首先,实现一个线程安全的数据结构,方便从recorder到player传输数据。然后依据每种api实现对应的recorder和player。Echo则是对回放功能的实现类,它使用了player和recorder,并管理两者之间的数据传输,以及播放状态。

因为练手的原因,我一共实现了两种线程安全的数据结构:BlockQueueBlockRingBuffer。前者基于一个list实现,后者是基于数组实现的环形buffer。

两者的基本特性是一样的:线程安全,内部空时get操作会被阻塞,内部满时put操作会被阻塞。

为了尽可能降低延迟,在启动时都是先启动player,这个时候由于buffer是空的,所以player会被阻塞,然后启动recorder,一旦recorder将数据放到buffer里,那player就能立即开始播放。

4. 使用OpenSL ES

4.1 播放器实现

源码文件是SLESPlayer。

对于OpenSL ES来说,尽管官方文档中说明了它的输出流也可以设置低延迟模式SL_ANDROID_PERFORMANCE_LATENCY,但是我在一加手机上无法配置成功。在官方的android-echo示例中也并没有找到相关的配置代码。

这里贴一下建立播放器的源码,因为OpenSL ES用起来还是挺复杂的,一是文档不是很全,二是源码没有注释。

* 初始化播放器。 * engine:OpenSLES引擎。 * dataCallback:数据回调接口。为空时,需要客户端自行向播放器填充数据。 * sampleRate:采样率 * channelCount:声道数 * framesPerBuffer:一个buffer包含多少帧,通常这是在使用低延迟音频时会设置。 * return:是否成功初始化。 bool SLESPlayer::init(SLESEngine &engine, ISLESPlayerCallback *dataCallback, int32_t sampleRate, int32_t channelCount, int32_t framesPerBuffer) { this->dataCallback = dataCallback; this->sampleRate = sampleRate; this->framesPerBuffer = framesPerBuffer; this->channelCount = channelCount; // 初始化一个buffer。 if(audioBuffer) free(audioBuffer); audioBuffer = (int16_t *)calloc(framesPerBuffer * channelCount, sizeof(int16_t)); SLEngineItf engineEngine = engine.getEngine(); SLresult result; // 初始化一个outputMix SLInterfaceID ids1[1] = {SL_IID_OUTPUTMIX}; SLboolean reqs1[1] = {SL_BOOLEAN_FALSE}; result = (*engineEngine)->CreateOutputMix(engineEngine, &outputMixObject, 0, ids1, reqs1); if(result != SL_RESULT_SUCCESS) return false; result = (*outputMixObject)->Realize(outputMixObject, SL_BOOLEAN_FALSE); if(result != SL_RESULT_SUCCESS) return false; // Create player SLDataLocator_AndroidSimpleBufferQueue bufferQueue = {SL_DATALOCATOR_ANDROIDSIMPLEBUFFERQUEUE, 2}; SLDataFormat_PCM pcmFormat = {SL_DATAFORMAT_PCM, (uint32_t)channelCount, (uint32_t)sampleRate * 1000, SL_PCMSAMPLEFORMAT_FIXED_16, SL_PCMSAMPLEFORMAT_FIXED_16, SL_SPEAKER_FRONT_CENTER, SL_BYTEORDER_LITTLEENDIAN}; SLDataSource audioSrc = {&bufferQueue, &pcmFormat}; SLDataLocator_OutputMix locOutputMix = {SL_DATALOCATOR_OUTPUTMIX, outputMixObject}; SLDataSink audioSink = {&locOutputMix, NULL}; SLInterfaceID ids2[2] = {SL_IID_BUFFERQUEUE, SL_IID_VOLUME}; SLboolean reqs2[2] = {SL_BOOLEAN_TRUE, SL_BOOLEAN_FALSE}; result = (*engineEngine)->CreateAudioPlayer(engineEngine, &playerObject, &audioSrc, &audioSink, 2, ids2, reqs2); if(result != SL_RESULT_SUCCESS) return false; result = (*playerObject)->Realize(playerObject, SL_BOOLEAN_FALSE); if(result != SL_RESULT_SUCCESS) return false; // 这是配置低延迟模式的代码,但是configItf一直是null。系统log打印W/libOpenSLES: Leaving Object::GetInterface (SL_RESULT_FEATURE_UNSUPPORTED) SLAndroidConfigurationItf configItf = nullptr; result = (*playerObject)->GetInterface(playerObject, SL_IID_ANDROIDCONFIGURATION, &configItf); if(result == SL_RESULT_SUCCESS && configItf != nullptr) // Set the performance mode. SLuint32 performanceMode = SL_ANDROID_PERFORMANCE_LATENCY; result = (*configItf)->SetConfiguration(configItf, SL_ANDROID_KEY_PERFORMANCE_MODE, &performanceMode, sizeof(performanceMode)); if(result != SL_RESULT_SUCCESS) LOGE("failed to enable low latency of player"); } else LOGE("failed to get config obj"); result = (*playerObject)->GetInterface(playerObject, SL_IID_PLAY, &playerPlay); if(result != SL_RESULT_SUCCESS) return false; result = (*playerObject)->GetInterface(playerObject, SL_IID_BUFFERQUEUE, &playerBufferQueue); if(result != SL_RESULT_SUCCESS) return false; if(dataCallback) result = (*playerBufferQueue)->RegisterCallback(playerBufferQueue, playerCallback, this); if(result != SL_RESULT_SUCCESS) return false; // 要注意,OpenSLES在创建好播放器或者录音器后,需要手动Enqueue一次,才能触发主动回调。 result = (*playerBufferQueue)->Enqueue(playerBufferQueue, audioBuffer, framesPerBuffer * channelCount * sizeof(int16_t)); if(result != SL_RESULT_SUCCESS) return false; (*playerPlay)->SetPlayState(playerPlay, SL_PLAYSTATE_STOPPED); return true;

这里的采样率和buffer长度就要设置为之前通过AudioManager查询得到的数据。

特别注意的是,OpenSL ES每次在start时需要手动Enqueue一次空buffer,这样它才会主动回调给它设置的callback。否则,不光是可能不会回调,还有可能出现杂音等一系列问题。

4.2 录音器实现

源码为SLESRecorder

对于recorder来说,设置recorder的config为SL_ANDROID_RECORDING_PRESET_VOICE_RECOGNITION,是降低录音延迟的设置。

* 初始化。 * engine:引擎 * dataCallback:输出录音数据的回调。为空时,需要客户端主动从录音器读取数据 * sampleRate:采样率 * framesPerBuffer:buffer可以容纳多少帧数据。对于录音器来说,该选项并不会影响延迟。录音器总是以尽可能快的方式进行。 * return:是否成功初始化 bool SLESRecorder::init(SLESEngine &engine, ISLESRecorderCallback *dataCallback, int32_t sampleRate, int32_t framesPerBuffer) { this->dataCallback = dataCallback; this->sampleRate = sampleRate; this->framesPerBuffer = framesPerBuffer; if(audioBuffer) free(audioBuffer); audioBuffer = (int16_t *)calloc(framesPerBuffer, sizeof(int16_t)); const SLEngineItf engineEngine = engine.getEngine(); if(!engineEngine) LOGE("engineEngine null"); return false; SLresult result; SLDataLocator_IODevice deviceInputLocator = { SL_DATALOCATOR_IODEVICE, SL_IODEVICE_AUDIOINPUT, SL_DEFAULTDEVICEID_AUDIOINPUT, NULL }; SLDataSource inputSource = { &deviceInputLocator, NULL }; SLDataLocator_AndroidSimpleBufferQueue inputLocator = { SL_DATALOCATOR_ANDROIDSIMPLEBUFFERQUEUE, 2 }; SLDataFormat_PCM inputFormat = { SL_DATAFORMAT_PCM, 1, (SLuint32)sampleRate * 1000, SL_PCMSAMPLEFORMAT_FIXED_16, SL_PCMSAMPLEFORMAT_FIXED_16, SL_SPEAKER_FRONT_LEFT, SL_BYTEORDER_LITTLEENDIAN }; SLDataSink inputSink = { &inputLocator, &inputFormat }; const SLInterfaceID inputInterfaces[2] = { SL_IID_ANDROIDSIMPLEBUFFERQUEUE, SL_IID_ANDROIDCONFIGURATION }; const SLboolean requireds[2] = { SL_BOOLEAN_TRUE, SL_BOOLEAN_TRUE }; // 创建AudioRecorder result = (*engineEngine)->CreateAudioRecorder(engineEngine, &recorderObject, &inputSource, &inputSink, 2, inputInterfaces, requireds); if(result != SL_RESULT_SUCCESS) LOGE("create recorder error"); return false; // 设置recorder的config为SL_ANDROID_RECORDING_PRESET_VOICE_RECOGNITION,这是开启录音器低延迟的方法。 SLAndroidConfigurationItf recordConfig; result = (*recorderObject)->GetInterface(recorderObject, SL_IID_ANDROIDCONFIGURATION, &recordConfig); if(result == SL_RESULT_SUCCESS) SLuint32 presentValue = SL_ANDROID_RECORDING_PRESET_VOICE_RECOGNITION; (*recordConfig)->SetConfiguration(recordConfig, SL_ANDROID_KEY_RECORDING_PRESET, &presentValue, sizeof(SLuint32)); // 初始化AudioRecorder result = (*recorderObject)->Realize(recorderObject, SL_BOOLEAN_FALSE); if(result != SL_RESULT_SUCCESS) LOGE("realise recorder object error"); return false; // 获取录制器接口 result = (*recorderObject)->GetInterface(recorderObject, SL_IID_RECORD, &recorderRecord); if(result != SL_RESULT_SUCCESS) LOGE("get interface error"); return false; // 获取音频输入的BufferQueue接口 result = (*recorderObject)->GetInterface(recorderObject, SL_IID_ANDROIDSIMPLEBUFFERQUEUE, &recorderBufferQueue); if(result != SL_RESULT_SUCCESS) LOGE("get buffer queue error"); return false; if(dataCallback) result = (*recorderBufferQueue)->RegisterCallback(recorderBufferQueue, recorderCallback, this); if(result != SL_RESULT_SUCCESS) LOGE("register callback error"); return false; // 要注意,OpenSLES在创建好播放器或者录音器后,需要手动Enqueue一次,才能触发主动回调。 result = (*recorderBufferQueue)->Enqueue(recorderBufferQueue, audioBuffer, framesPerBuffer * sizeof(int16_t)); if(result != SL_RESULT_SUCCESS) return false; (*recorderRecord)->SetRecordState(recorderRecord, SL_RECORDSTATE_STOPPED); return true;

4.3 Echo实现

源码是SLESEcho

它使用上面的player和recorder,因此这部分的代码已经相当简单,注意启动时的顺序,以及结束时的防止死锁:

void SLESEcho::start() {
    // 为了降低延迟,先启动播放器,让它的回调函数阻塞,一旦录音器有数据填充进来,可以立刻开始播放。
    player.start();
    recorder.start();
void SLESEcho::stop() {
    // 首先调用对应部件的stop方法,该方法是异步的,不会阻塞。但是回调函数可能仍然在阻塞,因此要对buffer进行设置,
    // 解除等待状态,然后再恢复阻塞功能。
    recorder.stop();
    buffer.setWaitPutState(false);
    player.stop();
    buffer.setWaitGetState(false);
    buffer.setWaitGetState(true);
    buffer.setWaitPutState(true);

5. 使用AAudio

使用AAudio的回调函数模式时要注意:AAudio回调函数需要返回AAUDIO_CALLBACK_RESULT_CONTINUEAAUDIO_CALLBACK_RESULT_STOP,来指示流是否继续进行。但是我发现如果你返回了stop,那么之后再调用start时,回调函数并不会被调用,也就无法正常录制或播放。而且AAudio的回调函数中并没有任何方式可以告诉AAudio你从它的audioData这个buffer里读取或写入了多少帧数据,所以它默认应该是你将buffer全都写满或者全都读取了。因此我建议,在录音端并不需要做任何特殊处理,但是在播放端,回调函数应该一直返回AAUDIO_CALLBACK_RESULT_CONTINUE,如果你因为播放功能已经停止,或者其他什么原因,导致你无法给到AAudio播放需要的那么多数据,只要简单将传到回调函数的audioData这个buffer全部置0,再尽可能写入即可,这样表现出的只是静音而已,并不会出现异常情况。对于流的状态,只需要通过流本身的start或stop进行即可。

5.1 播放器实现

源码是AAudioPlayer

相比于OpenSL ES,AAudio则要清楚很多。依旧只贴一下创建的代码。AAudio的输出流可以设置低延迟模式,为AAUDIO_PERFORMANCE_MODE_LOW_LATENCY

bool AAudioPlayer::init(IAAudioPlayerCallback *dataCallback, int32_t sampleRate, int32_t channelCount, PERFORMANCE_MODE mode, int32_t framesPerBuffer) {
    this->dataCallback = dataCallback;
    this->sampleRate = sampleRate;
    this->channelCount = channelCount;
    this->framesPerBuffer = framesPerBuffer;
    emptyBuffer = (int16_t *)calloc(framesPerBuffer * channelCount, sizeof(int16_t));
    aaudio_result_t result;
    AAudioStreamBuilder *outputBuilder;
    result = AAudio_createStreamBuilder(&outputBuilder);
    if(result != AAUDIO_OK)
        LOGE("create output stream builder error");
        AAudioStreamBuilder_delete(outputBuilder);
        return false;
    AAudioStreamBuilder_setDirection(outputBuilder, AAUDIO_DIRECTION_OUTPUT);
    AAudioStreamBuilder_setFormat(outputBuilder, AAUDIO_FORMAT_PCM_I16);
    AAudioStreamBuilder_setSamplesPerFrame(outputBuilder, framesPerBuffer);
    AAudioStreamBuilder_setSampleRate(outputBuilder, sampleRate);
    AAudioStreamBuilder_setChannelCount(outputBuilder, channelCount);
    if(dataCallback)
        AAudioStreamBuilder_setDataCallback(outputBuilder, output_callback, this);
    AAudioStreamBuilder_setPerformanceMode(outputBuilder, mode); // 在这里设置低延迟模式
    result = AAudioStreamBuilder_openStream(outputBuilder, &outputStream);
    AAudioStreamBuilder_delete(outputBuilder);
    if(result != AAUDIO_OK)
        LOGE("open play stream failed");
        return false;
    return true;

5.2 录音器实现

源码是AAudioRecorder

同输出流一样,AAudio的输入流可以设置低延迟模式,为AAUDIO_PERFORMANCE_MODE_LOW_LATENCY

bool AAudioRecorder::init(IAAudioRecorderCallback *dataCallback, int32_t sampleRate, PERFORMANCE_MODE mode, int32_t framesPerBuffer, int32_t micID) {
    this->sampleRate = sampleRate;
    this->framesPerBuffer = framesPerBuffer;
    this->micID = micID;
    this->dataCallback = dataCallback;
    this->mode = mode;
    aaudio_result_t result;
    AAudioStreamBuilder *inputBuilder;
    result = AAudio_createStreamBuilder(&inputBuilder);
    if(result != AAUDIO_OK)
        LOGE("create input stream builder error");
        return false;
    if(micID != -1)
        AAudioStreamBuilder_setDeviceId(inputBuilder, micID);
    AAudioStreamBuilder_setFormat(inputBuilder, AAUDIO_FORMAT_PCM_I16);
    AAudioStreamBuilder_setSamplesPerFrame(inputBuilder, framesPerBuffer);
    AAudioStreamBuilder_setSampleRate(inputBuilder, sampleRate);
    AAudioStreamBuilder_setChannelCount(inputBuilder, 1);
    AAudioStreamBuilder_setDirection(inputBuilder, AAUDIO_DIRECTION_INPUT);
    AAudioStreamBuilder_setPerformanceMode(inputBuilder, mode); // 在这里设置低延迟模式。
    if(dataCallback)
        AAudioStreamBuilder_setDataCallback(inputBuilder, input_callback, this);
    result = AAudioStreamBuilder_openStream(inputBuilder, &inputStream);
    if(result != AAUDIO_OK)
        LOGE("open record stream failed");
        return false;
    aaudio_performance_mode_t actualPerformance = AAudioStream_getPerformanceMode(inputStream);
    LOGD("actual performance mode is %d", actualPerformance);
    return true;

5.3 Echo实现

源码为AAudioEcho

Echo的实现基本同OpenSL ES的一致,就不贴了。

6. 使用Oboe

Oboe使用起来就更简单了,按照文档配置好编译即可。由于Oboe已经对它的播放和录制模块封装得非常好,因此我就不再单独封装出player和recorder。直接贴出Echo的初始化。

源码是OboeEcho

* 初始化 * sampleRate:采样率 * api:指定使用OpenSLES或者是AAudio。不设置时由系统自行确定。 * framesPerBuffer:每个buffer包含多少帧。 * micID:仅当Oboe使用AAudio进行echo时才有效。 bool OboeEcho::init(int32_t sampleRate, AudioApi api, int32_t framesPerBuffer, int32_t micID) { this->sampleRate = sampleRate; this->framesPerBuffer = framesPerBuffer; this->micID = micID; buffer = new BlockRingBuffer<int16_t>(3 * framesPerBuffer); oboe::Result result; AudioStreamBuilder inputBuilder; inputBuilder.setAudioApi(api); inputBuilder.setCallback(this); inputBuilder.setDirection(Direction::Input); inputBuilder.setChannelCount(ChannelCount::Mono); inputBuilder.setPerformanceMode(PerformanceMode::LowLatency); // 指定为低延迟 inputBuilder.setSharingMode(SharingMode::Shared); inputBuilder.setFormat(AudioFormat::I16); inputBuilder.setSampleRate(sampleRate); inputBuilder.setFramesPerCallback(framesPerBuffer); inputBuilder.setDeviceId(micID); result = inputBuilder.openStream(&recordStream); if(result != Result::OK) LOGE("create input stream failed"); return false; AudioStreamBuilder outputBuilder; outputBuilder.setAudioApi(api); outputBuilder.setCallback(this); outputBuilder.setDirection(Direction::Output); outputBuilder.setChannelCount(ChannelCount::Mono); outputBuilder.setPerformanceMode(PerformanceMode::LowLatency); // 指定为低延迟 outputBuilder.setSharingMode(SharingMode::Shared); outputBuilder.setFormat(AudioFormat::I16); outputBuilder.setSampleRate(sampleRate); outputBuilder.setFramesPerCallback(framesPerBuffer); result = outputBuilder.openStream(&playStream); if(result != Result::OK) LOGE("create output stream failed"); return false; this->inputApi = recordStream->getAudioApi(); if(inputApi == AudioApi::OpenSLES) LOGD("oboe recorder use api OpenSLES"); else if(inputApi == AudioApi::AAudio) LOGD("oboe recorder use api AAudio"); } else LOGD("oboe recorder use api UNKNOWN"); this->outputApi = playStream->getAudioApi(); if(inputApi == AudioApi::OpenSLES) LOGD("oboe player use api OpenSLES"); else if(inputApi == AudioApi::AAudio) LOGD("oboe player use api AAudio"); } else LOGD("oboe player use api UNKNOWN"); return true;

注意:当启动回放时,由于是先启动player,因此player的线程会在回调函数里阻塞等待recorder启动并放入音频数据。但是在OpenSL ES那章讲过,OpenSL ES的player在启动时,需要手动Enqueue一个空buffer进去才能正常播放。Oboe也是这么做的。因此如果Oboe使用的是OpenSL ES进行播放,那么这个流程会导致死锁,我们可以看一下Oboe的源码。由于是指定了OpenSL ES进行播放,因此Oboe内部是使用AudioOutputStreamOpenSLES实现的。看一下它的requestStart方法:

Result AudioOutputStreamOpenSLES::requestStart() {
    LOGD("AudioOutputStreamOpenSLES(): %s() called", __func__);
    mLock.lock();
    StreamState initialState = getState();
    switch (initialState) {
        case StreamState::Starting:
        case StreamState::Started:
            mLock.unlock();
            return Result::OK;
        case StreamState::Closed:
            mLock.unlock();
            return Result::ErrorClosed;
        default:
            break;
    // We use a callback if the user requests one
    // OR if we have an internal callback to read the blocking IO buffer.
    setDataCallbackEnabled(true);
    setState(StreamState::Starting);
    Result result = setPlayState_l(SL_PLAYSTATE_PLAYING);
    if (result == Result::OK) {
        setState(StreamState::Started);
        mLock.unlock();
        if (getBufferDepth(mSimpleBufferQueueInterface) == 0) {
            // Enqueue the first buffer if needed to start the streaming.
            // This might call requestStop() so try to avoid a recursive lock.
            // 注意到这里,它进行了callback相关的操作,进去看一下。
            processBufferCallback(mSimpleBufferQueueInterface);
    } else {
        setState(initialState);
        mLock.unlock();
    return result;
// 在processBufferCallback下有这行代码,它是调用callback获取了一个buffer数据。
// Ask the app callback to process the buffer.
DataCallbackResult result = fireDataCallback(mCallbackBuffer.get(), mFramesPerCallback);

可以看到,在stream的requestStart方法中,就已经调用了回调函数去获取数据了,因此如果在输入流没有启动之前,就让输出流的回调函数一直阻塞,那么输出流的requestStart方法就会被一直阻塞,导致无法启动输入流。

因此,对于Oboe使用OpenSL ES的情况,我是如下实现启动函数和回调函数的。

void OboeEcho::start() {
    if(!recordStream || !playStream)
        LOGE("player or recorder not prepared");
        return;
    playFlag = true;
     * 如果指定OpenSLES,则该标识为客户端是否刚启动播放。因为OpenSLES在启动时需要手动Enqueue一个空buffer。
     * 并且这个Enqueue的过程不是异步的,它会阻塞start方法。
     * 而由于我们希望尽可能降低播放延迟,因此都是首先启动play流。此时音频数据buffer是空的,play方法就会阻塞在
     * 回调函数里,等待录音流放入数据。但是play的start方法一直阻塞导致无法进行到recorder的start方法,就会发生死锁。
    justStart = true;
    playStream->start(10 * NANO_SEC_IN_MILL_SEC);
    recordStream->start(10 * NANO_SEC_IN_MILL_SEC);
DataCallbackResult
OboeEcho::onAudioReady(AudioStream *oboeStream, void *audioData, int32_t numFrames) {
    if(!playFlag)
        return DataCallbackResult::Continue;
    if(oboeStream == playStream)
        LOGD("player callback called");
        int32_t readSize = buffer->getRange((int16_t *)audioData, numFrames, !justStart);
        if(justStart)
            justStart = false;
//        int32_t readSize = 0;
//        sleep(2);
        LOGD("player get data, readSize = %d", readSize);
        if(readSize != numFrames)
            return DataCallbackResult::Continue;
    } else
        LOGD("recorder callback called");
        int32_t writeSize = buffer->putAll((int16_t *)audioData, numFrames);
        LOGD("recorder write data, writeSize = %d", writeSize);
        if(writeSize != numFrames)
            return DataCallbackResult::Continue;
    return DataCallbackResult::Continue;

注意到buffer->getRange((int16_t *)audioData, numFrames, !justStart)这个函数调用,这里我使用的是环形BlockRingBuffer,该方法的最后一个bool的意思为是否阻塞该方法,即如果此时buffer里面的数据没有达到要求的那么多个,它就不会等待,而是立即返回已经拿到的数据个数。这样player的回调在第一次调用时就不会被阻塞。

7. 功能配置

别忘了先请求录音权限

native-lib.cpp中,我指定了一个参数可以启动哪个echo:

extern "C" JNIEXPORT jboolean JNICALL
Java_com_zu_fastpathaudioecho_MainActivity_nInit(JNIEnv *env, jobject instance, jint sampleRate, jint framesPerBuffer, jint api)
    if(echo != nullptr)
        return false;
    if(api == 0)
        echo = new SLESEcho();
        return echo->init(sampleRate, framesPerBuffer);
    } else if(api == 1)
        echo = new AAudioEcho();
        return echo->init(sampleRate, framesPerBuffer);
    } else if(api >= 2)
        echo = new OboeEcho();
        AudioApi audioApi = api == 2 ? AudioApi::OpenSLES : AudioApi::AAudio;
        return ((OboeEcho *)echo)->init(sampleRate, audioApi, framesPerBuffer);

至此就结束了,native音频这里确实还是比较多坑的,踩下来需要很多耐心。详细源码可以去我的github上下载。

总体来说,OpenSL ES使用起来颇为繁琐,文档查看起来也不够详尽,很多配置很难完全了解清楚。但它的优势在于支持广泛,并且功能强大。当然由于这是ES版本,不可能在移动端实现全部的OpenSL库功能。

AAudio用起来比较省心一点,但因为是在Android 8.0才推出的,所以在照顾老机型方面需要慎重考虑(魅族pro7,同年的一加3t已经到9.0了,但是pro7居然还是7.0。这样的厂商真是开发者的噩梦)。

而Oboe则是集大成者,通常情况下,如果你不指定所使用的API,那么框架会自动进行选择,非常省心。所以除非要加一些依赖于OpenSL ES的效果,否则使用Oboe是最好的。

文章目录1. 前言2. 工程准备3. 低延迟音频原理及功能实现方案4. 使用OpenSL ES4.1 播放器实现4.2 录音器实现4.3 Echo实现5. 使用AAudio5.1 播放器实现5.2 录音器实现5.3 Echo实现6. 使用Oboe7. 功能配置1. 前言Android提供了很多的多媒体接口,通常在java层,我们常用的就是AudioTrack和MediaPlayer进行音频播放。MediaPlayer不光可以播放音频,也可以播放视频,并支持少部分的解码。而由于音视频通常计算量都很大,所 ns plugin add nativescript-audio 7之前的NativeScript版本: tns plugin add nativescript-audio@5.1.1 Android本机类 iOS本机类别 如果您正在使用录音功能,则需要在iOS上授予权限以允许设备访问麦克风。 否则,您的应用可能会在设备上崩溃,并且/或者您的应用可能会在Apple的审核程序中被拒绝。 为此,请将此密钥添加到您的app/App_Resources/iOS/Info.plist文件中: < key>NSMicrophoneUsageDescription</ key> < string>Recording
_ _ _ _ _ __ _ _ __ __| |_ __ ___ (_) __| | | |_ ___ _ _ ___| |__ / _` | '_ \ / _` | '__/ _ \| |/ _` | | __/ _ \| | | |/ __| '_ \ | (_| | | | | (_| | | | (_) | | (_| | | || (_) | |_| | (__| | | | \__,_|_| |_|\__,_|_| \___/|_|\__,_| \__\___/ \__,_|\___|_| |_| android_touch android_touch是将多点触控事件发送到android设备的工具。 通常,各种自动化脚本使用它在真实的android设备上发送触摸事件。 androi
好多开发者提到,为什么大牛直播SDK的Android平台RTMP推送接口怎么这么多?不像一些开源或者商业RTMP推送一样,就几个接口,简单明了。 不解释,以Android平台RTMP推送模块常用接口,看看这些接口有没有存在的意义?本文简单介绍,全当抛砖引玉,相关资料,可参考 Github: 1. 初始化Publisher接口,返回推送实例句柄: * Open publisher(启动推送实例) * @param ctx: get by this.getApplication
Android中,有时候需要用到录音,我们大多录音是通过AudioRecoder获取,由于我之前云游戏项目中使用的NDK开发的,现在也把录音部分移到ndk去,感觉自己不喜欢去讲太多的道理,就喜欢上代码。。。 1.初始化引擎,以及设置回调 //1. 调用全局方法创建一个引擎对象(OpenSL ES唯一入口) SLresult result = slCreateEngine(&engineObject, 0, NULL, 0, NULL, NULL); if (SL_RESULT
这个问题在Android上是个难点。 Android在诞生之初对声音的播放和录音延时并没有非常严格的要求。手机厂商之前也都不在意延时指标,这几年才慢慢有改观。Android最近几年的新版本也一直在逐步改善延时问题,不过各大手机厂有多重视就不得而知了。 部分K歌软件为了减少延时,也费了不少精力,使用各种越过中间层的方法,直接使用底层音频接口。就目前的现状来说,手机上用的Linux内核并非实时系统,只依赖Android/Linux的现有音频架构,大部分手机还是没法满足麦克实时返送的要求...
安卓Native逆向之MOO音乐解密( .bkcflac,bkcmp3文件解密)1、背景2、Java层逆向3、Native层逆向4、Java实现 本文写于2021年1月5日,解密算法适用于目前最新版的MOO加密。之前加密方式和母线加密方式并不完全相同 2018年鹅厂推出了一款名为MOO的音乐APP,设计风格独特,采用QQ音乐曲库,可以看作是QQ音乐的轻奢款。可以是因为设计风格太过独特,MOO音乐只在一些小圈子里流行,一直不温不火。 不过从2019年末开始,MOO音乐就开始免费送VIP,到现在持续了