AVCapture系列

2018-05-17  本文已影响58人  ElaineYin

自定义Camera:https://www.jianshu.com/p/d88c98852eab

先来看下AVCapture的几个关键对象:

  1. AVCaptureDevice: 信号采集硬件设备(摄像头、麦克风、屏幕等)
  2. AVCaptureInput: 设备输入信号
  3. AVCaptureOutput:设备输出信号
  4. AVCaptureSession:AVCaptureSession是整个Capture的核心。类似于RunLoop,它不断的从输入源获取数据,然后分发给各个输出源。
  5. AVCaptureConnection:AVCaptureConnections是Session和Output中间的控制节点。每个Output与Session建立连接后,都会分配一个默认的AVCpatureConnection
  6. AVCapturePreviewLayer:预览层,是一个CALayer对象,提供摄像头的预览功能,照片以及视频就是通过把AVCapturePreviewLayer添加到UIView 的layer上来显示

它们的关系流程如下:


image

使用流程:

1. 创建AVCaptureSession

在配置AVCaptureSession, 需要注意的是:
1、在输入输出或配置它的时候, 线程是阻塞的, 所以最好是创建一条串行队列异步执行。
2、在改变或配置输入, 输出, 预设(sessionPreset)的时候, 在AVCaptureSession所在线程在修改或配置之前调用- (void)beginConfiguration; 修改完之后, 或修改失败之后调用- (void)commitConfiguration;, 这样可以提高流畅性等不必要的BUG

// 1 创建session
AVCaptureSession *session = [AVCaptureSession new];
//设置session显示分辨率
[session setSessionPreset:AVCaptureSessionPreset1280x720];
2. 选择设备AVCaptureDevice
//初始化方法
+ (nullable AVCaptureDevice *)defaultDeviceWithMediaType:(AVMediaType)mediaType;

// 获取摄像头device:
AVCaptureDevice *videoDevice =
        [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
//获取麦克风device
AVCaptureDevice *audioDevice =
        [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeAudio];
//AVMediaType类型:
AVF_EXPORT AVMediaType const AVMediaTypeVideo                 NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT AVMediaType const AVMediaTypeAudio                 NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT AVMediaType const AVMediaTypeText                  NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT AVMediaType const AVMediaTypeClosedCaption         NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT AVMediaType const AVMediaTypeSubtitle              NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT AVMediaType const AVMediaTypeTimecode              NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT AVMediaType const AVMediaTypeMetadata              NS_AVAILABLE(10_8, 6_0);
AVF_EXPORT AVMediaType const AVMediaTypeMuxed                 NS_AVAILABLE(10_7, 4_0);
3. 给Session添加input输入

AVCaptureSession可以拥有一个或多个输入源, 当你想获取一张图片的时候你只需要AVCaptureDeviceInput(video)也就是图像的输入源就可以了, 当你想获取一段有声的视频时,则需要两个输入源AVCaptureDeviceInput(video)和AVCaptureDeviceInput(audio),你还可以只获取声音数据的时候, 只要AVCaptureDeviceInput(audio)就可以了。

//video输入源
AVCaptureDevice *videoDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
NSError *error;
AVCaptureDeviceInput *videoDataInput = [AVCaptureDeviceInput deviceInputWithDevice:videoDevice error:&error];
4. 给session添加output输出

常用的输出源有:
. AVCaptureVideoDataOutput,
. AVCaptureAudioDataOutput,
. AVCaptureMovieFileOutput,
. AVCaptureStillImageOutput/AVCapturePhotoOutput,
. AVCaptureMetadataOutput
AVCaptureStillImageOutPutAVCapturePhotoOutput是类似的, iOS10之前用 AVCaptureStillImageOutPut, iOS10之后用 AVCapturePhotoOutput

//video输出
AVCaptureVideoDataOutput *videoDataOutput = [[AVCaptureVideoDataOutput alloc] init];
videoDataOutput.alwaysDiscardsLateVideoFrames = YES;
videoDataOutput.videoSettings = [NSDictionary dictionaryWithObjectsAndKeys:[NSNumber numberWithInt:kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange], (id)kCVPixelBufferPixelFormatTypeKey, nil];[videoDataOutput setSampleBufferDelegate:self queue:queue];
if ([session canAddOutput:self.videoDataOutput]) {
        [session addOutput:videoDataOutput];
}
5. 设置AVCaptureConnection

AVCaptureConnection代表着一条连接通道。
在AVCaptureSession中, 可能存在着很多的AVCaptureConnection,, 例如:获取视视频的时候, 就有视频和音频的输入, 输出也可以分视频数据和音频数据, 还可以获取图片数据。一般这个对象在你AVCaptureSession中加入输入输出的时候就会自动的帮你创建了。
可以通过connection设置output属性,比如ouput video的方向videoOrientation

AVCaptureConnection *videoConnection = [videoDataOutput connectionWithMediaType:AVMediaTypeVideo];
//视频录制方向
videoConnection.videoOrientation = AVCaptureVideoOrientationPortrait;
//视频防抖模式
videoConnection.preferredVideoStabilizationMode = AVCaptureVideoStabilizationModeAuto;
6. 设置视频预览层AVCaptureVideoPreviewLayer

在input,output等重要信息都添加到session以后,可以用session创建AVCaptureVideoPreviewLayer,这是摄像头的视频预览层.

AVCaptureVideoPreviewLayer *preLayer = [AVCaptureVideoPreviewLayer layerWithSession: session];
UIView *view = [[UIView alloc] initWithFrame:self.view.bounds];
preLayer.frame = view.bounds;
preLayer.videoGravity = AVLayerVideoGravityResizeAspectFill;
[view.layer addSublayer:preLayer];
7. 启动session
if (![session isRunning]) {
   dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
            [session startRunning];
        });
}

参考链接(排名不分先后):https://blog.csdn.net/qq_21649645/article/details/50739609
https://www.aliyun.com/jiaocheng/352604.html

上一篇下一篇

猜你喜欢

热点阅读