iOS Audio Queue录制音频
在开发中,我们有时候需要使用苹果相关音频框架录制音频数据,并同步保存在本地或发送到服务器,Audio Queue框架则是一个比较简单易用的框架,下面介绍使用Audio Queue录制PCM格式的数据的步骤。
1、确定录制的格式
在录制音频前,我们首先需要确定录制音频的格式信息,iOS中,有一个结构体专用于描述音频格式信息,AudioStreamBasicDescription结构体,组成如下:
struct AudioStreamBasicDescription
{
Float64 mSampleRate; //音频的采样率。
AudioFormatID mFormatID; //音频的格式ID
AudioFormatFlags mFormatFlags; //音频的Flags,对mFormatID的补充
UInt32 mBytesPerPacket; //每个Packet的字节数
UInt32 mFramesPerPacket; //每个Packet包含的Frame数
UInt32 mBytesPerFrame; //每个Frame包含的位数
UInt32 mChannelsPerFrame; //每个Frame包含的频道数
UInt32 mBitsPerChannel; //每个频道Channel包含的位数
UInt32 mReserved; //标记是否对结构体进行填充进行8字节对齐,暂不设置,为默认
};
typedef struct AudioStreamBasicDescription AudioStreamBasicDescription;
我们设置参数如下:
audioDescription.mSampleRate = 8000;
audioDescription.mFormatID = kAudioFormatLinearPCM;
audioDescription.mFormatFlags = kAudioFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked;
audioDescription.mChannelsPerFrame = 1;
audioDescription.mFramesPerPacket = 1;
audioDescription.mBitsPerChannel = 16;
audioDescription.mBytesPerFrame = (audioDescription.mBitsPerChannel / 8) * audioDescription.mChannelsPerFrame;
audioDescription.mBytesPerPacket = audioDescription.mBytesPerFrame * audioDescription.mFramesPerPacket;
其中kAudioFormatLinearPCM代表录制线性PCM数据,kAudioFormatFlagIsSignedInteger设置为整数值,kAudioFormatFlagIsPacked暂不是十分理解,各位可以自己去查看官方文档。格式可以根据自己需要进行设置。
2、创建AudioQueueRef对象
格式确定后我们创建Audio Queue对象,使用如下方法:
extern OSStatus
AudioQueueNewInput( const AudioStreamBasicDescription *inFormat,
AudioQueueInputCallback inCallbackProc,
void * __nullable inUserData,
CFRunLoopRef __nullable inCallbackRunLoop,
CFStringRef __nullable inCallbackRunLoopMode,
UInt32 inFlags,
AudioQueueRef __nullable * __nonnull outAQ) API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));
参数解释:
const AudioStreamBasicDescription *inFormat //音频格式对象,传入刚才的格式对象即可
AudioQueueInputCallback inCallbackProc //输入回调函数指针
void * __nullable inUserData //指定传入回调函数的参数
CFRunLoopRef __nullable inCallbackRunLoop //调用回调函数的RunLoop,可以填nil,使用默认值
CFStringRef __nullable inCallbackRunLoopMode //调用回调函数的RunLoopMode,可以填nil,使用默认值
UInt32 inFlags //保留标志位,填0
AudioQueueRef __nullable * __nonnull outAQ //创建的AudioQueue对象存放的地址
回调函数类型如下:
typedef void (*AudioQueueInputCallback)(
void * __nullable inUserData,
AudioQueueRef inAQ,
AudioQueueBufferRef inBuffer,
const AudioTimeStamp * inStartTime,
UInt32 inNumberPacketDescriptions,
const AudioStreamPacketDescription * __nullable inPacketDescs);
参数解释
void * __nullable inUserData //AudioQueueNewInput()函数中的inUserData参数,
AudioQueueRef inAQ //当前AudioQueueNewInput()创建的AudioQueue对象,
AudioQueueBufferRef inBuffer //当前的输入缓存,
const AudioTimeStamp * inStartTime //当前缓存的开始时间,
UInt32 inNumberPacketDescriptions //当前缓存包含的Packet的数量,
const AudioStreamPacketDescription * __nullable inPacketDescs //压缩数据的描述,这里暂不使用。
使用AudioQueueNewInput()函数创建对象成功则返回0。
3、设置缓冲区
创建Audio Queue对象成功后,进行缓冲区的设置。我们先创建缓冲区对象,然后把缓冲区对象填充到队列中去。
创建缓冲区函数如下:
extern OSStatus
AudioQueueAllocateBuffer( AudioQueueRef inAQ,
UInt32 inBufferByteSize,
AudioQueueBufferRef __nullable * __nonnull outBuffer) API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));
参数解释:
AudioQueueRef inAQ //创建的AudioQueueRef对象
UInt32 inBufferByteSize, //缓冲区大小
AudioQueueBufferRef __nullable * __nonnull outBuffer //创建的缓冲区AudioQueueBufferRef对象指针存放的地址
缓冲区创建数量越少则延迟越小,同时同步要求更高。这里就创建三个。
创建好缓存区后把缓存区对象填充到Audio Queue队列中去。填充函数如下:
extern OSStatus
AudioQueueEnqueueBuffer( AudioQueueRef inAQ,
AudioQueueBufferRef inBuffer,
UInt32 inNumPacketDescs,
const AudioStreamPacketDescription * __nullable inPacketDescs) API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));
参数解释:
AudioQueueRef inAQ, //Audio Queue对象
AudioQueueBufferRef inBuffer, //缓冲区对象
UInt32 inNumPacketDescs, //PacketDescs数量
const AudioStreamPacketDescription * __nullable inPacketDescs //PacketDescs参数
inAQ参数和inBuffer参数填我们刚才创建的AudioQueueRef和AudioQueueBufferRef对象,inNumPacketDescs填0,inPacketDescs填NULL即可。我们循环创建填充到队里里。
4、实现回调函数
最后我们需要实现AudioQueueNewInput()函数里面的回调函数,
void audioQueueInputCallback(
void * __nullable inUserData,
AudioQueueRef inAQ,
AudioQueueBufferRef inBuffer,
const AudioTimeStamp * inStartTime,
UInt32 inNumberPacketDescriptions,
const AudioStreamPacketDescription * __nullable inPacketDescs) {
NSData *data = [NSData dataWithBytes:inBuffer->mAudioData length:inBuffer->mAudioDataByteSize];
//data即为我们录制的音频数据,为PCM裸数据流
AudioQueueEnqueueBuffer(inAQ, inBuffer, 0, NULL);
}
5、开始录制
在使用完数据后,我们需要再次把缓存对象填充到队里中,让Audio Queue继续填充录制的数据。
在我们准备工作完成后,调用start的方法开始音频录制。
extern OSStatus
AudioQueueStart( AudioQueueRef inAQ,
const AudioTimeStamp * __nullable inStartTime) API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));
函数的第一个参数为我们创建的AudioQueueRef对象,第二个参数填NULL则代表即可开始,我们填写NULL即可。函数返回0则代表成功。
当AudioQueue开始后会有源源不断的PCM数据流通过回调函数给我们进行处理,比如写入文件、发送到网络服务器、进行压缩处理等等。
当我们需要停止录制时,调用停止的方法即可,方法也非常简单,如下:
extern OSStatus
AudioQueueStop( AudioQueueRef inAQ,
Boolean inImmediate) API_AVAILABLE(macos(10.5), ios(2.0), watchos(2.0), tvos(9.0));
第一个参数为需要停止的AudioQueueRef对象,第二个参数表示是否需要立即停止,我们传入YES即可。当传入NO时,该函数会立即返回,但并不立即停止,而是处理完以填充在队里里面的缓存区对象后停止,停止为异步操作;传入YES时则会立即停止,并等待AudioQueue停止后返回,停止为同步操作。
最后欢迎大家留言交流,同时附上Demo和文档地址。
Demo地址:https://github.com/XMSECODE/ESAudioQueueDemo
AudioQueue框架的更详细的使用及文档可以查阅苹果官方文档:https://developer.apple.com/documentation/audiotoolbox/audio_queue_services