iOS调试技巧WebRTC

WebRTC 学习报告

2018-04-02  本文已影响218人  耦耦

刚开始接触webRTC,会遇到很多问题。webRTC移动端兼容性检测,如何配置MediaStreamConstraints, 信令(iceCandidate, sessionDescription)传输方式的选择,iceCandidate和sessionDescription设置的先后顺序,STUN和TURN的概念,如何实现截图及录制视频及上传图片和视频功能,如何高效跟踪错误等等。笔者带着这些问题来写这个笔记,敬请指教!

一、introduction

WbRTC是Web Real-Time Communication的缩写,顾名思义,也就是web实时通讯技术,它允许网络应用或站点,在不借助中间媒介、不安装任何插件或者第三方软件的情况下,建立浏览器之间P2P链接,实现视频流或者其他任意数据的传输。而Web开发者也无需关注多媒体的数字信号处理过程,只需编写简单的Javascript程序调用相应的接口即可实现。

说的简单明了一点就是让浏览器提供JS的即时通信接口。这个接口所创立的信道并不是像WebSocket一样,打通一个浏览器与WebSocket服务器之间的通信,而是通过一系列的信令,建立一个浏览器与浏览器之间P2P的信道,这个信道可以发送任何数据,而不需要经过服务器。并且WebRTC通过实现MediaStream,通过浏览器调用设备(包括PC端和移动端)的摄像头、话筒,使得浏览器之间可以传递音频和视频

WebRTC 是一组开放的 API,用于实现实时音视频通话并且已成为 W3C 标准草案,目前是WebRTC 1.0版本,Draft 状态。

webrtc几个相关概念

二、兼容性

目前主流浏览器对 WebRTC 标准的支持情况如下(目前主要支持chrome和Firefox):

浏览器 支持情况
Chrome(29+)/Opera(36+) 支持
Firefox(45+) 支持
Android Browser 支持(5.0+)
Safari/iOS 支持
Edge(14+) 支持
IE 不支持

实时查看WebRTC在浏览器中的支持情况: http://caniuse.com/#search=webRTC

三、WebRTC 系统包含的元素

WebRTC系统所包含的典型元素:

四、WebRTC三个API

1、MediaStream(又称getUserMedia)

通过MediaStream的API能够通过设备的摄像头及话筒获得视频、音频的同步流

用法

navigator.mediaDevices.getUserMedia(constraints);

一般来说,navigator.mediaDevices.getUserMedia用法:

navigator.mediaDevices.getUserMedia(constraints)
.then(function(stream) {
  /* use the stream */
  /* handleSuccess  成功回调函数*/
})
.catch(function(err) {
  /* handle the error */
 /* handleError   失败处理函数*/
});

之前一直以为getUserMedia()mediaDevice.getUserMedia()的写法相同,但在实践的时候发现是不可以的。getUserMedia接受三个参数(约束条件、成功回调函数、失败回调函数),mediaDevice.getUserMedia只接受一个参数,其他处理函数是以.then和.catch来实现的。

常见的错误可以点击这里进行查看 ==> Common getUserMedia() Errors

注意:navigator.getUserMedia此方法已经被navigator.mediaDevices.getUserMedia取代。

三个参数

约束对象可定义如下属性:

属性 含义
* video: 是否接受视频流
* audio: 是否接受音频流
* MinWidth: 视频流的最小宽度
* MaxWidth: 视频流的最大宽度
* MinHeight: 视频流的最小高度
* MaxHiehgt: 视频流的最大高度
* MinAspectRatio: 视频流的最小宽高比
* MaxAspectRatio: 视频流的最大宽高比
* MinFramerate: 视频流的最小帧速率
* MaxFramerate: 视频流的最大帧速率

如果网页使用了getUserMedia,浏览器就会询问用户,是否许可提供信息。如果用户拒绝,就调用回调函数handleError。发生错误时,回调函数的参数是一个Error对象,它有一个code参数,取值如下:

配置MediaStreamConstraints

所谓MediaStreamConstraints,就是navigator.mediaDevices.getUserMedia(constraints)传入的constraints

对于移动端来说控制好视频图像的大小是很重要的,例如本项目中想要对方的图像占据全屏,这不仅是改变video元素的样式或者属性能做到的,首先要做的是改变MediaStreamConstraints中的视频分辨率(width, height),使其长宽比例大致与移动端屏幕的类似,然后再将video元素的长和宽设置为容器的长和宽(例如100%)。

另外对于getUserMedia一定要捕获可能出现的错误,如果是老的API,设置onErr回调,如果是新的(navigator.mediaDevices.getUserMedia),则catch异常。这样做的原因:getUserMedia往往不会完全符合我们的预期,有时即使设置的是ideal的约束,仍然会报错,如果不追踪错误,往往一脸懵逼。这也是后文要提到的高效追踪错误的方法之一。

兼容浏览器的getUserMedai的写法

var getUserMedia = (navigator.getUserMedia ||
                    navigator.webkitGetUserMedia ||
                    navigator.mozGetUserMedia || 
                    msGetUserMedia);

检测webRTC的可行性

主要从getUserMedia和webRTC本身来入手,示例代码如下:

function detectWebRTC() {
  const WEBRTC_CONSTANTS = ['RTCPeerConnection', 'webkitRTCPeerConnection', 'mozRTCPeerConnection', 'RTCIceGatherer'];

  const isWebRTCSupported = WEBRTC_CONSTANTS.find((item) => {
    return item in window;
  });

  const isGetUserMediaSupported = navigator && navigator.mediaDevices && navigator.mediaDevices.getUserMedia;

  if (!isWebRTCSupported || typeof isGetUserMediaSupported === 'undefined' ) {
    return false;
  }

  return true;
}

HTMLMediaElement.srcObject

接口的srcObject属性HTMLMediaElement设置或返回作为媒体源的对象HTMLMediaElement,该对象可以是a mediaStream、a mediaSource、a blog 、a file。

用法

var mediaStream = HTMLMediaElement .srcObject
 HTMLMediaElement .srcObject = mediaStream

这个例子使用srcObject并优雅地回退到src如果srcObject抛出错误。

const mediaSource = new MediaSource();
const video = document.createElement('video');
try {
  video.srcObject = mediaSource;
} catch (error) {
  video.src = URL.createObjectURL(mediaSource);
}

URL.createObjectURL()

注意:使用 一个MediaStream对象作为此方法的输入正在被弃用。这个方法正在被讨论是否应该被移除. 所以,你应当在你使用MediaStream避免使用这个方法,而用HTMLMediaElement.srcObject() 替代.

getUserMediaMedai的实现简单代码

navigator.getUserMedia = navigator.getUserMedia ||
                         navigator.webkitGetUserMedia || 
                         navigator.mozGetUserMedia ||
                         navidator.msGetUserMedia;

var constraints = { // 音频、视频约束
  audio: true, // 指定请求音频Track
  video: {  // 指定请求视频Track
      mandatory: { // 对视频Track的强制约束条件
          width: {min: 320},
          height: {min: 180}
      },
      optional: [ // 对视频Track的可选约束条件
          {frameRate: 30}
      ]
  }
};

var video = document.querySelector('video');

function successCallback(stream) {
  if (window.URL) {
    video.src = window.URL.createObjectURL(stream);
  } else {
    video.src = stream;
  }
}

function errorCallback(error) {
  console.log('navigator.getUserMedia error: ', error);
}

navigator.getUserMedia(constraints)
.then(function(){
    successCallback(stream);
})
.catch(function(){
    errorCallback(error)
});

如果本机有多个摄像头/麦克风,这时就需要使用MediaStreamTrack.getSources方法指定,到底使用哪一个摄像头/麦克风。


2、 RTCPeerConnection(核心API)

RTCPeerConnection的作用是在浏览器之间建立数据的“点对点”(peer to peer)通信,也就是将浏览器获取的麦克风或摄像头数据,传播给另一个浏览器。这里面包含了很多复杂的工作,比如信号处理、多媒体编码/解码、点对点通信、数据安全、带宽管理等等。

不同客户端之间的音频/视频传递,是不用通过服务器的。但是,两个客户端之间建立联系,需要通过服务器。服务器主要转递两种数据。

WebRTC协议没有规定与服务器的通信方式,因此可以采用各种方式,比如WebSocket。通过服务器,两个客户端按照Session Description Protocol(SDP协议)交换双方的元数据。

RTCPeerConnection是在Chrome中和Android设备中使用,经过几次迭代之后RTCPeerConnection现在支持 Chrome and Opera作为webkitRTCPeerConnectionFirefox 作为mozRTCPeerConnection。Google维护一个函数库adapter.js,用来抽象掉浏览器之间的差异。

UDP和TCP的区别

(Transmisson Control Protocol,TCP)传输控制协议,它保证如下几点:

(User Datagram Protocol, UDP)用户数据报协议,以下是他不保证的事情:

TCP的这些限制使得WEBRTC开发者选择UDP作为传输协议,webRTC的音频、视频和数据在浏览器间的传输不需要最可靠但需要最快。这意味着允许丢失帧,也就是说这类应用来说UDP是一个更好的选择。但不意味着webRTC就不使用TCP协议!

如果UDP传输失败, ICE 会尝试TCP: 首先是 HTTP, 然后才会选择 HTTPS。如果直接连接失败,通常因为企业的NAT转发和防火墙,也就是ICE使用了第三方中转。这样一来,ICE首先使用STUN和UDP和直接连接端点,失败之后返回TURN服务器,表达式‘finding cadidates’指向找到的网络接口和端口。

没有服务器的RTCPeerConnection

请求和被请求都在同一个页面,它们可以直接通过RTCPeerConnection对象在页面上交换信息,而不需要使用中介的信号机制。WebRTC samples用的是这种方式,但一般来说,实际开发的时候,这种方式不会用到。只是在学习和测试的时候用的比较多【个人而言】。

有服务器的RTCPeerConnection

在现在的世界里,WebRTC需要服务器,但是服务器配置非常简单,步骤如下:

其他方面,WebRTC需要四个类型的服务器端功能:

服务器主要转递两种数据。

WebRTC协议没有规定与服务器的信令通信方式,因此可以采用各种方式,比如WebSocket(HTTP、数据通道等)。通过服务器,两个客户端按照Session Description Protocol(SDP协议)交换双方的元数据。

兼容浏览器的PeerConnection写法

var PeerConnection = (window.PeerConnection ||
                    window.webkitPeerConnection00 || 
                    window.webkitRTCPeerConnection || 
                    window.mozRTCPeerConnection);

信号: session控制,网络和多媒体信息

WebRTC使用RTCPeerConnection进行两个浏览器之间的数据流的通信,但是也需要一种机制来协调沟通控制信息,这一个过程叫做信号。信号的方法和协议不是WebRTC指定的,而是RTCPeerConnection API的一部分。

信号用来交换以下三个类型的信息:

建立webRTC的基本会话流程

singing server信令服务器:用来开始和结束通话,即开始视频、结束视频这些操作指令和通信数据的交换等。

注意:使用turn服务器的时候,客户端AB不直接通信,而是分别与turn通信从而建立链接。
使用stun服务器的时候,因为客户端B无法访问客户端A的内网IP,所以A通过stun服务器获得自己的外网IP再发送给B,从而建立链接。

webRTC基本会话流程
  1. 首先双方都建立一个RTCPeerConnection的实例,其中一方(称为offer方)用RTCPeerConnection.createOffer()创建一个会话描述sessionDescription,该会话描述包含SDP报文信息和该sessionDescription的类型(type)

  2. 接下来调用RTCPeerConnection.setLocalDescription()方法将本地的localDescription设置为刚才创建的sessionDescription。之后将创建的sessionDescription发送给对方(称为answer方),发送方式没有规定,可以通过服务器中转,可以通过IM软件发送(这里使用WebSocket信令服务器)。

  3. answer端接收到sessionDescription后调用RTCPeerConnection. setRemoteDescription方法设置,然后调用RTCPeerConnection. createAnswer方法产生自己的sessionDescription。

  4. 再将创建的sessionDescription发送给offfer方,同样发送方式没有规定。offer方接收到sessionDescrip后调用RTCPeerConnection. setRemoteDescription方法设置,这样双方的SDP信息就交换完成了。

  5. 在完成SDP的交换后双方还要交换ICE candidate信息。双方首先设置RTCPeerConnection.onicecandidate回调函数,当candidate可用时,双方中的一方将所有icecandidate发送给对方,发送方式同样没有规定,接收方调用RTCPeerConnection.addIceCandidate方法接收candidate信息。经过这些步骤后双方连接就建立完成了。

注意:RTCPeerConnection.addStreamRTCPeerConnection.addTrack取代;


3、RTCDataChannel (不常用)

RTCDataChannel 使得浏览器之间(点对点)建立一个高吞吐量、低延时的信道,用于传输任意数据。表示连接的两个对等端之间的 双向数据通道

我们可以使用channel = pc.createDataCHannel("someLabel");来在PeerConnection的实例上创建Data Channel,并给与它一个标签

例子

var pc = new RTCPeerConnection();
var dc = pc.createDataChannel("my channel", dataChannelOptions);

dc.onmessage = function (event) {
 console.log("received: " + event.data);
};

dc.onopen = function () {
 console.log("datachannel open");
};

dc.onclose = function () {
 console.log("datachannel close");
};

dataChannelOptions为数据通道选项,可以自行配置,并且这个配置项是可选的:

//这两个是主要使用的配置项,其他的配置大多在高级应用中才会使用
var dataChannelOptions = {
    reliable: false,    //设置消息传递是否进行担保
   maxRetransmitTime: 3000     //设置消息传送失败时,多久重新发送
}

DataChannel使用方式几乎和WebSocket一样,有几个事件

四个状态,可以通过readyState获取:

两个暴露的方法:

当创建一个数据通道后,你必须等onopen事件触发后才能发送消息。在通道打开前发送消息,会抛出一个异常,这个异常指出通道还没准备好发送消息。

语法和websoket比较相似,用了send()和message()方法。

通信是出现在两个浏览器之间的,所以RTCDataChannel会比WebSocket快一些。RTCDataChannel 支持Chrome, Opera和Firefox.。

数据通道支持如下类型

dataChannel.onmessage = function(event){
    var data = event.data;
    if(data instanceof Blob){
        // 处理Blob
    }else if(data instanceof ArraBuffer){
        //处理ArrayBuffer
    }else if(data instanceof ArrayBufferView){
        // ArrayBufferView
    }else{
        //处理String
    }
}

加密与安全

webRTC运行时,对于所有协议的实现,都会强烈执行加密功能。这意味着浏览器间的每一个对等连接,都自动处于高的安全级别中。所使用的加密技术都应该满足对等应用的以下几个要求:

为了满足各方面的需求,我们的协议使用的是DTLS

到这里最大的收获,你需要知道数据通道和webRTC应用中,数据是安全的。


problem progress

1、信令(iceCandidate, sessionDescription)传输方式的选择

要传输的信令包括两个部分:sessionDescription(也就是你传输的是什么?阿猫阿狗)和iceCandidate(以什么样的方式传输?火车空运)。为了便于传输可将其处理成字符串,另一端接收时还原并用对应的构造函数构造对应的实例即可。

webRTC并没有规定信令的传输方式,而是完全由开发者自定义。常见的方式有短轮询webSocket(socket.io等)

综合来说socket.io是个不错的解决方案,事件机制和自带的房间概念对撮合视频会话都是天然有利的,并且当浏览器不支持websocket时可以切换为轮询,也解决了兼容性的问题。

webSocket属于长链接。

2、STUN和TURN的概念

stun和turn服务的作用主要处理打洞与转发,配合完成ICE协议。
首先尝试使用P2P,如果失败将求助于TCP,使用turn转发两个端点的音视频数据,turn转发的是两个端点之间的音视频数据不是信令数据。因为turn服务器是在公网上,所以他能被各个客户端找到,另外turn服务器转发的是数据流,很占用带宽和资源。

3、webRTC移动端兼容性检测
文章前面有getUserMedia及RTCPeerConnection的浏览器兼容写法

4、如何配置MediaStreamConstraints
约束项在文章前面部分

5、如何高效跟踪错误
整个双向视频涉及到的步骤较多,做好错误追踪是非常重要的。像getUserMedia时,一定要catch可能出现的异常。因为不同的设备,不同的浏览器或者说不同的用户往往不能完全满足我们设置的constraints。还有在实例化RTCPeerConnection时,往往会出现不可预期的错误,常见的有STUN、TURN格式不对,还有createOffer时传递的offerOptions格式不对,正确的应该为:

const offerOptions = {
  'offerToReceiveAudio': true,
  'offerToReceiveVideo': true
};

这些问题还在思考中:
1、如何实现截图及录制视频及上传图片和视频功能。
2、两个不同的客户端实现对等连接的时候,如何获取对方的视频和音频?
3、iceCandidate和sessionDescription设置的先后顺序


notice

考虑版本向上兼容,更要向下兼容!!!

手动运行demo最简单方法就是cd到HTML文件所在目录下,然后python -m SimpleHTTPServer(装了python的话),然后在浏览器中输入http://localhost:8000/{文件名称}.html

对video元素要特殊处理。设置autoPlay属性,对播放本地视频源的video还要设置muted属性以去除回音。针对IOS播放视频自动全屏的特性,还要设置playsinline属性的值为true

通常有报道说一个平台支持WebRTC,一般都说他们支持getUserMedia,而不支持其它RTC组件,开发的时候需要先弄清楚。

在非官方文档中,并非所有的信息都是正确的,有分歧的地方要学习实践检验(比如有些文档在使用getUserMedai的时候省略navigator,运行的时候会报错)。所以尽可能多看官方文档!

google提供的实现stun协议的测试服务器(stun:stun.l.google.com:19302)


参考资料:
[1]通过WebRTC实现实时视频通信(三)
[2]webRTC实战总结
[3]WebRTC API
[4]使用WebRTC搭建前端视频聊天室——入门篇
[5]webrtc进阶-信令篇-之三:信令、stun、turn、ice
[6]getUserMedai()视频约束
[7]WebRTC1-原理探究

...还有很多

上一篇下一篇

猜你喜欢

热点阅读