(一)音视频基础

2018-11-12  本文已影响52人  yanerly

一、什么是CDN网络?

为了解决用户访问网络资源慢出现的一个技术

网络慢的原因:

①访问的链路过长:比如在东北要访问一个在海南的网络
②认为因素:比如三大运营商要求,只能用自己的流量去访问网络

二、音频相关:

CDN构成:

①边缘结点:用户会先从边缘结点获取服务;
②二级结点(主干结点):主要是用于缓存,减轻源站的压力。如果边缘结点没有服务,会先从主干结点上拉取缓存的数据到边缘结点,然后用户再从边缘结点获取数据;
③源站:(会有多个源节点)内容提供商会将内容放在源站上。如果边缘结点和主干结点都没有获取到服务,则会访问源站。

CDN网络.jpg

常用工具:

①ffmpeg (爱芙爱慕派个)
②ffplay:也是基于ffmpeg
③flashplayer

音频三要素:

①音调(音频)
②音量
③音色(根材质有关)

听觉范围:

①<20HZ,次声波
②20HZ~20KHZ,可以听见的
③>20KHZ,超声波

音频的量化与标准

量化过程.jpg

①采样大小:也就是采样的纵坐标对应的值,表示一个采样用多少位存放。一般为16bit(2^16 = 65535),也可以是8位,但是8位对应的是256,比较小,一般采用16位。
采样率:一般由8k,16k,32k,44.1k(AAC用这个),48k
可以把它理解为,要采集的总量,拿44.1k举例,比如说,现在要采集20HZ的,就要采集(44100/20=)2000次,而要采集20KHZ的,就要采集(44100/20000=)2次;

③声道:单声道、双声道、多声道(上下左右等都有一个喇叭)

码率:

采样率 x 采样大小 x 声道数
比如:
采样率为:44.1k
采用大小为:16bit
双声道的PCM编码的WAV文件,它的码率为:
44.1k x 16 x 2=1411.2kb/s--->除以8--->176.4kB/s

音频的压缩技术:

常见的音视频编解码器:

类型 特点 应用场景
OPUS 最流行的,内部有两个核心模型:基于口和基于耳,内部自主进行选择 实时互动(口模型),声音乐器等高保真的(耳模型);不适用与泛娱乐化场景,因为泛娱乐化场景中是用的rtmp协议,这个协议可以支持AAC和Speex;
AAC 泛娱乐化
Vorbis
Speex 除了音视频编解码之外,还可以进行回音消除,降噪
iLBC
AMR
G.711 音视频会议会用到固话,固话用的就是G.711和G.712

性能对比:OPUS>AAC>Vorbis

AAC(Advanced Audio Coding):

为什么这么重要?
①应用范围广,在泛娱乐化中大部分都是用的这个;
②协议的支持:在泛娱乐化中要用的是rtmp协议,而AAC支持这个协议
③它的高保真可以保证音频的质量

目的:取代MP3
原因:MP3的规范是MPEG-2,这个规范在音频方面的处理是有损压缩,也就是说还原回来的数据和原数据不能一模一样,对音质有损耗;而AAC的损耗更小,且压缩率更高,他是基于MPEG-4规范的;

规则 全名 特点 码流
AAC LC Low Complexity 低复杂度, 码流为 128k
AAC HE V1 AAC LC + SBR(Spectral Band Replication 分频复用) 将一个音频的频带分成两部分:低频和高频,分别进行编码 码流为64k左右
AAC HE V2 AAC LC + SBR + PS(Parametric Stereo ) 对于双声道来说,只完整保存其中一个声道的音频,另一个只保存差异性的数据就行了,因为两个声道关联性很强,可以通过一些公式,得到原始的数据 码流为32k左右
格式 全名 特点 区别
ADIF Audio Data Interchange Format 在一个音频文件的开始加一个头(如:采样大小/采样率/声道数等),之后取出的每一帧都套用这个头去编解码; 只能从头部开始解码,常用在磁盘文件中
ADTS Audio Data Transport Stream 在音频文件的每一帧签名都加7~9个字节,表示它的采样大小等 可以从任意位置开始解码,类似于数据流格式

AAC编码库哪个好?

Libfdk_AAC > ffmpeg AAC > libfaac > libvo_aacenc

三、视频:

1.几种帧:
2.视频花屏和卡顿的原因

花屏主要是有帧的丢失:比如P帧或者是I帧丢失了;
卡顿主要是为因为为了解决避免花屏的情况,就把丢失的那一组帧全部扔掉,然后就会卡屏了;

3.编码器分类:
名字 特点
x264/x265 x264的性能更好,x265的压缩比高,但是CPU占用也高,不适合直播
openH264 是使用的svc,比如说把一帧分成3层(小中大),当网络较差的时候,只发送内核层,较好的时候,多发送异常,这样以此类推,多一层,画质就会更清晰一些
vp8/vp9 是goole推出的,vp8是基于x264,vp9是基于x265的
H264编码原理:
宏划分2.jpg

从上面的图中可以看出,整张图宏划分后就是这样的了;

宏划分3.jpg
名字 特点
SODB 原始数据比特流,由VCL层产生,不一定是8的倍数
RBSP SODB + traling bits,在SODB的末尾加1,还不足8位的,补0
EBSP 压缩流,在帧的开头加一个起始位,一般是16进制的0000 0001或者是00 00 01,因为压缩流中可能也会有连续的0,所以在压缩流中连续的0前面加 0x03;
NALU NAL头(1个字节)+EBSP
切片与宏的关系_备注.jpg
4.NAL(NAL header + body)
+---------------+
|0|1|2|3|4|5|6|7|
+-+-+-+-+-+-+-+-+
|F|NRI|   TYPE  |

F:禁止位,在H264中规定必须为0
NRI:指示重要性,暂时不用
Type:表示NALU单元的类型,常用的类型有5(IDR图像的片,关键帧的一部分)
、7(序列参数集 FPS)、8(图像参数集 PPS)、28/29(分片的单元-->分片之后再通过FU Header组合)

+---------------+
|0|1|2|3|4|5|6|7|
+-+-+-+-+-+-+-+-+
|S|E|R|   TYPE  |

S:分片的开始
E:分片的结束
R:未使用,设置为0
Type:分片NAL的类型

5.YUV(YCbCr)

Y:明亮度,又叫灰阶值
U和V:表示色度,描述影像的色彩及饱和度,用于指定像素的颜色
用途:还是为了节省存储空间

常见格式:
存储格式:

后续还要学习的内容:
①音视频采集
②音视频硬件的编码解码
③FFMPEG
④视频渲染与opengl
⑤x264优化:用于编码,解码用FFMPEG,可以将x264作为一个插件放到FFMPEG中
⑥交叉编译与优化
⑦WebRTC:回音消除等
⑧音视频处理架构
⑨网络传输

面试问题:
①视频秒开
②回音消除(打开外放后能听到自己的声音)
③音频降噪
④视频出现花屏/卡顿/绿边
⑤手机发烫(虽然是高概率事件)
⑥音视频同步

上一篇下一篇

猜你喜欢

热点阅读