Learning AV Foundationios 知识点

Learning AV Foundation(一)汉字语音朗读

2019-01-18  本文已影响120人  iOS猿_员

前言

最近在研究AV Foundation 框架 发现有一本书叫做
AV Foundation开发秘籍:实践掌握iOS & OS X 应用的视听处理技术
然后google查了一下英文版叫
Learning AV Foundation: A Hands-on Guide to Mastering the AV Foundation Framework
看着国人的翻译不仅慨叹的想说一句话: 为啥不自己写一本书 何必这么费劲翻译它搞得原来很有技术含量 这么直译就没技术含量了。看着开发秘籍这名字不禁想起大学时那些书 从开发到入门… 21天学会xxx… 开发指南… 开发秘籍… 我大学读的都是假书

今天给大家分享的是 iOS上如何 把汉字转换成语音朗读, 当然这个没什么技术含量(大神可以飞过).

AVFoundation整体架构

研究这个功能之前先介绍一下AV Foundation整体架构

这是iOS上的架构设计 (上图)

这是macOS上的架构设计(上图)

看完之后我们就来用代码实现这个demo
首先导入<AVFoundation/AVFoundation.h>

这我需要使用的是iOS上的AVSpeechSynthesizer,macOS上叫NSSpeechSynthesizer

@property (strong, nonatomic) AVSpeechSynthesizer *synthesizer;

AVSpeechSynthesizer 它的功能

初始化

- (void)awakeFromNib {
    [super awakeFromNib];
    //创建语音合成器
    self.synthesizer = [[AVSpeechSynthesizer alloc] init];
    self.synthesizer.delegate = self;
    //播放的国家的语言
    self.voices = @[[AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"],[AVSpeechSynthesisVoice voiceWithLanguage:@"en-US"]
                    ];
    self.speechStrings = [[NSMutableArray alloc] init];
}

这里的[AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"]
设置的是简体中文语音 文章末尾会列出所有语音播放信息不用担心写错.

AVSpeechSynthesizer的delegate方法如下 主要是对语音播放状态的监听

@protocol AVSpeechSynthesizerDelegate <NSObject>
// 代理方法
@optional
// 开始播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didStartSpeechUtterance:(AVSpeechUtterance *)utterance;
// 完成播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didFinishSpeechUtterance:(AVSpeechUtterance *)utterance;
// 暂停播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didPauseSpeechUtterance:(AVSpeechUtterance *)utterance;
// 继续播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didContinueSpeechUtterance:(AVSpeechUtterance *)utterance;
// 取消播放 语音单元
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer didCancelSpeechUtterance:(AVSpeechUtterance *)utterance;
// 这里 指的是 又来监听 播放 字符范围
- (void)speechSynthesizer:(AVSpeechSynthesizer *)synthesizer willSpeakRangeOfSpeechString:(NSRange)characterRange utterance:(AVSpeechUtterance *)utterance;
@end

这里的AVSpeechSynthesizer主要的方法有

/* 添加 播放话语 到 播放语音 队列, 可以设置utterance的属性来控制播放 */
- (void)speakUtterance:(AVSpeechUtterance *)utterance;
// 对于 stopSpeakingAtBoundary: 语音单元的操作, 如果中断, 会清空队列
// 中断
- (BOOL)stopSpeakingAtBoundary:(AVSpeechBoundary)boundary;
// 暂停
- (BOOL)pauseSpeakingAtBoundary:(AVSpeechBoundary)boundary;
// 继续
- (BOOL)continueSpeaking;

这里我们用的speakUtterance方法来播放文字
speakUtterance:(AVSpeechUtterance *)utterance

  1. AVSpeechUtterance是对文字朗读的封装
  2. 被播放的语音文字, 可以理解为一段需要播放的文字
    这里我们设置AVSpeechUtterance朗读播放的信息

//播放语音
NSArray *speechStringsArray = [self buildSpeechStrings]; //buildSpeechStrings播放字符串的数组
   for (NSUInteger i = 0; i < speechStringsArray.count; i++) {
       //创建AVSpeechUtterance 对象 用于播放的语音文字
       AVSpeechUtterance *utterance = [[AVSpeechUtterance alloc] initWithString:speechStringsArray[i]];
       //设置使用哪一个国家的语言播放
       utterance.voice = self.voices[0];
       //本段文字播放时的 语速, 应介于AVSpeechUtteranceMinimumSpeechRate 和 AVSpeechUtteranceMaximumSpeechRate 之间
       utterance.rate = 0.5;
       //在播放特定语句时改变声音的声调, 一般取值介于0.5(底音调)~2.0(高音调)之间
       utterance.pitchMultiplier = 0.8f;
       //声音大小, 0.0 ~ 1.0 之间
       utterance.volume = 1.0f;
       //播放后的延迟, 就是本次文字播放完之后的停顿时间, 默认是0
       utterance.preUtteranceDelay = 0;
       //播放前的延迟, 就是本次文字播放前停顿的时间, 然后播放本段文字, 默认是0
       utterance.postUtteranceDelay = 0.1f;
       [self.synthesizer speakUtterance:utterance];
   }

AVSpeechUtterance的属性如下

// 设置使用哪一个国家的语言播放
@property(nonatomic, retain, nullable) AVSpeechSynthesisVoice *voice;
// 获取当前需要播放的文字, 只读属性
@property(nonatomic, readonly) NSString *speechString;
// 获取当前需要播放的文字 - 富文本, 只读属性, iOS10以后可用
@property(nonatomic, readonly) NSAttributedString *attributedSpeechString;
// 本段文字播放时的 语速, 应介于AVSpeechUtteranceMinimumSpeechRate 和 AVSpeechUtteranceMaximumSpeechRate 之间
@property(nonatomic) float rate;           
// 在播放特定语句时改变声音的声调, 一般取值介于0.5(底音调)~2.0(高音调)之间
@property(nonatomic) float pitchMultiplier; 
// 声音大小, 0.0 ~ 1.0 之间
@property(nonatomic) float volume;
// 播放后的延迟, 就是本次文字播放完之后的停顿时间, 默认是0
@property(nonatomic) NSTimeInterval preUtteranceDelay; 
// 播放前的延迟, 就是本次文字播放前停顿的时间, 然后播放本段文字, 默认是0
@property(nonatomic) NSTimeInterval postUtteranceDelay;

AVSpeechUtterance的方法如下

以下全部都是初始化方法, 分为 类方法 和 对象方法, 富文本的初始化方法要在iOS10以后才可以用

+ (instancetype)speechUtteranceWithString:(NSString *)string;
+ (instancetype)speechUtteranceWithAttributedString:(NSAttributedString *)string NS_AVAILABLE_IOS(10_0);
- (instancetype)initWithString:(NSString *)string;
- (instancetype)initWithAttributedString:(NSAttributedString *)string

可以使用[AVSpeechSynthesisVoice speechVoices]代码打印出支持朗读语言的国家

ar-SA 沙特阿拉伯(阿拉伯文)
en-ZA, 南非(英文)
nl-BE, 比利时(荷兰文)
en-AU, 澳大利亚(英文)
th-TH, 泰国(泰文)
de-DE, 德国(德文)
en-US, 美国(英文)
pt-BR, 巴西(葡萄牙文)
pl-PL, 波兰(波兰文)
en-IE, 爱尔兰(英文)
el-GR, 希腊(希腊文)
id-ID, 印度尼西亚(印度尼西亚文)
sv-SE, 瑞典(瑞典文)
tr-TR, 土耳其(土耳其文)
pt-PT, 葡萄牙(葡萄牙文)
ja-JP, 日本(日文)
ko-KR, 南朝鲜(朝鲜文)
hu-HU, 匈牙利(匈牙利文)
cs-CZ, 捷克共和国(捷克文)
da-DK, 丹麦(丹麦文)
es-MX, 墨西哥(西班牙文)
fr-CA, 加拿大(法文)
nl-NL, 荷兰(荷兰文)
fi-FI, 芬兰(芬兰文)
es-ES, 西班牙(西班牙文)
it-IT, 意大利(意大利文)
he-IL, 以色列(希伯莱文,阿拉伯文)
no-NO, 挪威(挪威文)
ro-RO, 罗马尼亚(罗马尼亚文)
zh-HK, 香港(中文)
zh-TW, 台湾(中文)
sk-SK, 斯洛伐克(斯洛伐克文)
zh-CN, 中国(中文)
ru-RU, 俄罗斯(俄文)
en-GB, 英国(英文)
fr-FR, 法国(法文)
hi-IN 印度(印度文)

总结

为了学习AVFoundation我先从一个简单的知识点入手,唯一觉得遗憾的是我不太确定是否这个合成器支持自定义语音朗读;

最终的demo 支持iOS和macOS,如果需要Demo:加iOS高级技术交流群:624212887,获取Demo,以及更多iOS学习资料

参考:
AV Foundation Apple 官方文档
AVSpeechSynthesizer 和 AVSpeechUtterance
AVSpeechSynthesizer详解

文章来源于网络,如有侵权请联系小编删除

上一篇下一篇

猜你喜欢

热点阅读