音视频

iOS Audio Queue录制音频

2018-11-14  本文已影响0人  iOS_tree

在开发中,我们有时候需要使用苹果相关音频框架录制音频数据,并同步保存在本地或发送到服务器,Audio Queue框架则是一个比较简单易用的框架,下面介绍使用Audio Queue录制PCM格式的数据的步骤。

1、确定录制的格式

在录制音频前,我们首先需要确定录制音频的格式信息,iOS中,有一个结构体专用于描述音频格式信息,AudioStreamBasicDescription结构体,组成如下:

struct AudioStreamBasicDescription
{
    Float64            mSampleRate;            //音频的采样率。
    AudioFormatID      mFormatID;              //音频的格式ID
    AudioFormatFlags    mFormatFlags;            //音频的Flags,对mFormatID的补充
    UInt32              mBytesPerPacket;        //每个Packet的字节数
    UInt32              mFramesPerPacket;        //每个Packet包含的Frame数
    UInt32              mBytesPerFrame;          //每个Frame包含的位数
    UInt32              mChannelsPerFrame;      //每个Frame包含的频道数
    UInt32              mBitsPerChannel;        //每个频道Channel包含的位数
    UInt32              mReserved;              //标记是否对结构体进行填充进行8字节对齐,暂不设置,为默认
};
typedef struct AudioStreamBasicDescription  AudioStreamBasicDescription;

我们设置参数如下:

        audioDescription.mSampleRate              = 8000;
        audioDescription.mFormatID                = kAudioFormatLinearPCM;
        audioDescription.mFormatFlags             = kAudioFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked;
        audioDescription.mChannelsPerFrame        = 1;
        audioDescription.mFramesPerPacket         = 1;
        audioDescription.mBitsPerChannel          = 16;
        audioDescription.mBytesPerFrame           = (audioDescription.mBitsPerChannel / 8) * audioDescription.mChannelsPerFrame;
        audioDescription.mBytesPerPacket          = audioDescription.mBytesPerFrame * audioDescription.mFramesPerPacket;

其中kAudioFormatLinearPCM代表录制线性PCM数据,kAudioFormatFlagIsSignedInteger设置为整数值,kAudioFormatFlagIsPacked暂不是十分理解,各位可以自己去查看官方文档。格式可以根据自己需要进行设置。

2、创建AudioQueueRef对象

格式确定后我们创建Audio Queue对象,使用如下方法:

extern OSStatus             
AudioQueueNewInput(                 const AudioStreamBasicDescription *inFormat,
                                    AudioQueueInputCallback         inCallbackProc,
                                    void * __nullable               inUserData,
                                    CFRunLoopRef __nullable         inCallbackRunLoop,
                                    CFStringRef __nullable          inCallbackRunLoopMode,
                                    UInt32                          inFlags,
                                    AudioQueueRef __nullable * __nonnull outAQ)          API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));

参数解释:

const AudioStreamBasicDescription *inFormat          //音频格式对象,传入刚才的格式对象即可
AudioQueueInputCallback         inCallbackProc          //输入回调函数指针
void * __nullable               inUserData                          //指定传入回调函数的参数
CFRunLoopRef __nullable         inCallbackRunLoop    //调用回调函数的RunLoop,可以填nil,使用默认值
CFStringRef __nullable          inCallbackRunLoopMode    //调用回调函数的RunLoopMode,可以填nil,使用默认值
UInt32                          inFlags              //保留标志位,填0
AudioQueueRef __nullable * __nonnull outAQ              //创建的AudioQueue对象存放的地址

回调函数类型如下:

typedef void (*AudioQueueInputCallback)(
                                    void * __nullable               inUserData,
                                    AudioQueueRef                   inAQ,
                                    AudioQueueBufferRef             inBuffer,
                                    const AudioTimeStamp *          inStartTime,
                                    UInt32                          inNumberPacketDescriptions,
                                    const AudioStreamPacketDescription * __nullable inPacketDescs);

参数解释

void * __nullable               inUserData          //AudioQueueNewInput()函数中的inUserData参数,
AudioQueueRef                   inAQ            //当前AudioQueueNewInput()创建的AudioQueue对象,
AudioQueueBufferRef             inBuffer            //当前的输入缓存,
const AudioTimeStamp *          inStartTime      //当前缓存的开始时间,
UInt32                          inNumberPacketDescriptions        //当前缓存包含的Packet的数量, 
const AudioStreamPacketDescription * __nullable inPacketDescs        //压缩数据的描述,这里暂不使用。

使用AudioQueueNewInput()函数创建对象成功则返回0。

3、设置缓冲区

创建Audio Queue对象成功后,进行缓冲区的设置。我们先创建缓冲区对象,然后把缓冲区对象填充到队列中去。
创建缓冲区函数如下:

extern OSStatus
AudioQueueAllocateBuffer(           AudioQueueRef           inAQ,    
                                    UInt32                  inBufferByteSize,
                                    AudioQueueBufferRef __nullable * __nonnull outBuffer)              API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));

参数解释:

AudioQueueRef           inAQ        //创建的AudioQueueRef对象
UInt32                  inBufferByteSize,    //缓冲区大小
AudioQueueBufferRef __nullable * __nonnull outBuffer    //创建的缓冲区AudioQueueBufferRef对象指针存放的地址

缓冲区创建数量越少则延迟越小,同时同步要求更高。这里就创建三个。
创建好缓存区后把缓存区对象填充到Audio Queue队列中去。填充函数如下:

extern OSStatus
AudioQueueEnqueueBuffer(            AudioQueueRef                       inAQ,
                                    AudioQueueBufferRef                 inBuffer,
                                    UInt32                              inNumPacketDescs,
                                    const AudioStreamPacketDescription * __nullable inPacketDescs)      API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));

参数解释:

AudioQueueRef                       inAQ,           //Audio Queue对象
AudioQueueBufferRef                 inBuffer,       //缓冲区对象
UInt32                              inNumPacketDescs,   //PacketDescs数量
const AudioStreamPacketDescription * __nullable inPacketDescs   //PacketDescs参数

inAQ参数和inBuffer参数填我们刚才创建的AudioQueueRef和AudioQueueBufferRef对象,inNumPacketDescs填0,inPacketDescs填NULL即可。我们循环创建填充到队里里。

4、实现回调函数

最后我们需要实现AudioQueueNewInput()函数里面的回调函数,

void audioQueueInputCallback(
                                        void * __nullable               inUserData,
                                        AudioQueueRef                   inAQ,
                                        AudioQueueBufferRef             inBuffer,
                                        const AudioTimeStamp *          inStartTime,
                                        UInt32                          inNumberPacketDescriptions,
                                        const AudioStreamPacketDescription * __nullable inPacketDescs) {

    NSData *data = [NSData dataWithBytes:inBuffer->mAudioData length:inBuffer->mAudioDataByteSize];
    //data即为我们录制的音频数据,为PCM裸数据流
    AudioQueueEnqueueBuffer(inAQ, inBuffer, 0, NULL);
}

5、开始录制

在使用完数据后,我们需要再次把缓存对象填充到队里中,让Audio Queue继续填充录制的数据。
在我们准备工作完成后,调用start的方法开始音频录制。

extern OSStatus
AudioQueueStart(                    AudioQueueRef                     inAQ,
                                    const AudioTimeStamp * __nullable inStartTime)        API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));

函数的第一个参数为我们创建的AudioQueueRef对象,第二个参数填NULL则代表即可开始,我们填写NULL即可。函数返回0则代表成功。
当AudioQueue开始后会有源源不断的PCM数据流通过回调函数给我们进行处理,比如写入文件、发送到网络服务器、进行压缩处理等等。
当我们需要停止录制时,调用停止的方法即可,方法也非常简单,如下:

extern OSStatus
AudioQueueStop(                     AudioQueueRef           inAQ,
                                    Boolean                 inImmediate)            API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));

第一个参数为需要停止的AudioQueueRef对象,第二个参数表示是否需要立即停止,我们传入YES即可。当传入NO时,该函数会立即返回,但并不立即停止,而是处理完以填充在队里里面的缓存区对象后停止,停止为异步操作;传入YES时则会立即停止,并等待AudioQueue停止后返回,停止为同步操作。

最后欢迎大家留言交流,同时附上Demo和文档地址。
Demo地址:https://github.com/XMSECODE/ESAudioQueueDemo
AudioQueue框架的更详细的使用及文档可以查阅苹果官方文档:https://developer.apple.com/documentation/audiotoolbox/audio_queue_services

上一篇下一篇

猜你喜欢

热点阅读