iOS原生语音识别学习
2018-11-10 本文已影响0人
一场梦_0ff6
最近因为项目里用到了语音识别,开始用了第三方厂家的SDK,因为苹果系统里自带语音识别的功能,所以也顺便研究了研究,自己也是刚刚接触iOS开发没多久,所以也就当做总结和分享了,这篇也是自己第一次写的文章,欢迎大家留言讨论。
文章借鉴自https://www.jianshu.com/p/a9c64ac2c586
在此基础上我又加上了通过动画来显示麦克风声音的大小;麦克风的捕捉用到了AVFoundation,AVFoundation是苹果的一个很强大的框架,自己目前也是用到什么去学习哪一部分,暂时就不做系统性的总结了;在这里接触到的几个重要的概念就是AVCaptureSession(用于协调输入与输出的核心),AVCaptureInput(输入数据源),AVCaptureOutput(输出数据源),AVCaptureDevice(输入设备,比如说摄像头、麦克风等),AVAudioRecorder(录音),AVAudioSession(负责录音的核心);核心代码如下:
录音和语音识别的部分设置代码如下:
想要使用苹果的语音识别的话首先要在info plist文件里申请权限
在语音识别结束之后会从下面得到语音识别的结果
从下面的对调方法里得到录音数据,对数据进行分析量化得到声音的大小
Demo源码 https://github.com/ManofSnow/recordingLearn