iOS视频开发-AVPlayer播放本地、远程视频
介绍AVPlayer使用之前,先给大家介绍一些《iOS常用的音频、视频框架》,大家了解一下,不必刻意去记,如果以后需要用到,再回过头查询。
一:MediaPlayer 框架
Media Player 框架是 iOS 平台上一个用于音频和视频播放的高层级接口,它包含了一个你可以在应用中直接使用的默认的用户界面。你可以使用它来播放用户在 iPod 库中的项目,或者播放本地文件以及网络流。
另外,这个框架也包括了查找用户媒体库中内容的 API,同时还可以配置像是在锁屏界面或者控制中心里的音频控件。
二:AudioToolbox 框架
AudioToolbox 这个库是C的接口,偏向于底层,用于在线流媒体音乐的播放,可以调用该库的相关接口自己封装一个在线播放器类。
三:AVFoundation 框架
AVFoundation 框架 是苹果的现代媒体框架,它包含了一些不同的用途的 API 和不同层级的抽象。其中有一些是现代 Objective-C 对于底层 C 语言接口的封装。除了少数的例外情况,AVFoundation 可以同时在 iOS 和 OS X 中使用。
AVFoundation 框架中常用的API:
AVAudioSession:是用于 iOS 系统中协调应用程序之间的音频播放的 API 的。
AVAudioPlayer:是一个高层级的 API 为你提供一个简单的接口,用来播放本地或者内存中的音频。
AVAudioRecorder:叫做录音机,提供了在应用程序中的音频记录能力。
AVPlayer:能播放本地、远程的音频、视频文件。基于Layer显示,得自己去编写控制面板。
AVAudioEngine:是播放和录制的 Objective-C 接口。
四:Audio Unit 框架
Audio Unit 框架是一个底层的 API;所有 iOS 中的音频技术都构建在 Audio Unit 这个框架之上。音频单元是用来加工音频数据的插件。一个音频单元链叫做音频处理图。
如果你需要非常低的延迟 (如 VoIP 或合成乐器)、回声消除、混音或者音调均衡的话,你可能需要直接使用音频单元,或者自己写一个音频单元。但是其中的大部分工作可以使用 AVAudioEngine 的 API 来完成。如果你不得不写自己的音频单元的话,你可以将它们与 AVAudioUnit 节点一起集成在 AVAudioEngine 处理图中。
MediaPlayer 使用
1、获取视频的URL
NSURL *url = [NSURL URLWithString:@"http://images.apple.com/media/cn/apple-events/2016/5102cb6c_73fd_4209_960a_6201fdb29e6e/keynote/apple-event-keynote-tft-cn-20160908_1536x640h.mp4"];
2、创建视频控制器
MPMoviePlayerViewController *playerViewController= [[MPMoviePlayerViewController alloc] initWithContentURL:url];
3.播放视频
[self presentMoviePlayerViewControllerAnimated:playerViewController];
AVPlayer 使用
在开发中,单纯使用AVPlayer类是无法显示视频的,要将视频层添加至AVPlayerLayer中,这样才能将视频显示出来。
1、先将在线视频链接存放在NSURL中,然后初始化AVPlayerItem对象,AVPlayerItem是管理资源的对象。
2、然后监听AVPlayerItem的 status 和 loadedTimeRange 属性,status 属性有三种状态:
typedef NS_ENUM(NSInteger, AVPlayerItemStatus) {
AVPlayerItemStatusUnknown,
AVPlayerItemStatusReadyToPlay,
AVPlayerItemStatusFailed
};
1、当 AVPlayerItem 的 status 等于AVPlayerStatusReadyToPlay时代表视频已经可以播放了,我们就可以调用play方法播放了。
2、loadedTimeRange 属性代表已经缓冲的进度,监听此属性可以在UI中更新缓冲进度。
3、addPeriodicTimeObserverForInterval
给AVPlayer 添加time Observer 有利于我们去检测播放进度。
4、使用 AVPlayer 对象的 seekToTime 方法 可以控制视频播放进度。
下面是具体的代码(Demo地址),先给大家截图,看一下完整的效果:
视频截图第一步:初始化 播放器对象 以及 播放器层。
- (void)initPlayer{
/ /创建播放器层
AVPlayerLayer*playerLayer = [AVPlayerLayer playerLayerWithPlayer:self.player];
playerLayer.frame = self.view.bounds;
[self.view.layer addSublayer:playerLayer];
}
//初始化播放器
-(AVPlayer*)player{
if(!_player) {
NSURL*url = [NSURLURLWithString:@"http://images.apple.com/media/cn/apple-events/2016/5102cb6c_73fd_4209_960a_6201fdb29e6e/keynote/apple-event-keynote-tft-cn-20160908_1536x640h.mp4"];
AVPlayerItem*playerItem=[AVPlayerItem playerItemWithURL:url];
_player= [AVPlayer playerWithPlayerItem:playerItem];
// 通过 KVO 监听AVPlayerItem的status和loadedTimeRange属性
[self addObserverToPlayerItem:playerItem];
// 给播放器添加进度更新 addPeriodicTimeObserverForInterval
[self addProgressObserver];
//给AVPlayerItem添加播放完成通知
[self addNotification];
}
return_player;
}
第二步:通过 KVO 监听AVPlayerItem的status和loadedTimeRange属性
-(void)addObserverToPlayerItem:(AVPlayerItem*)playerItem {
//监控状态属性,注意AVPlayer也有一个status属性,通过监控它的status也可以获得播放状态
[playerItemaddObserver:selfforKeyPath:@"status"options:NSKeyValueObservingOptionNewcontext:nil];
//监控网络加载情况属性
[playerItemaddObserver:selfforKeyPath:@"loadedTimeRanges"options:NSKeyValueObservingOptionNewcontext:nil];
}
-(void)observeValueForKeyPath:(NSString*)keyPath ofObject:(id)object change:(NSDictionary*)change context:(void*)context {
AVPlayerItem*playerItem=object;
if([keyPathisEqualToString:@"status"]) {
AVPlayerStatusstatus= [[changeobjectForKey:@"new"]intValue];
if(status==AVPlayerStatusReadyToPlay){
NSLog(@"正在播放...,视频总长度:%.2f",CMTimeGetSeconds(playerItem.duration));
}
}elseif([keyPathisEqualToString:@"loadedTimeRanges"]){
NSArray*array=playerItem.loadedTimeRanges;
CMTimeRangetimeRange = [array.firstObjectCMTimeRangeValue];//本次缓冲时间范围
floatstartSeconds =CMTimeGetSeconds(timeRange.start);
floatdurationSeconds =CMTimeGetSeconds(timeRange.duration);
NSTimeIntervaltotalBuffer = startSeconds + durationSeconds;//缓冲总长度
NSLog(@"共缓冲:%.2f",totalBuffer);
}
}
第三步:给播放器添加进度更新 addPeriodicTimeObserverForInterval
-(void)addProgressObserver{
AVPlayerItem*playerItem=self.player.currentItem;
UIProgressView*progress=self.progress;
//这里设置每秒执行一次
[self.playeraddPeriodicTimeObserverForInterval:CMTimeMake(1.0,1.0)queue:dispatch_get_main_queue()usingBlock:^(CMTimetime) {
floatcurrent=CMTimeGetSeconds(time);
floattotal=CMTimeGetSeconds([playerItemduration]);
NSLog(@"当前已经播放%.2fs.",current);
];
}
第四步:给AVPlayerItem添加播放完成通知
- (void)addNotification {
[[NSNotificationCenterdefaultCenter]addObserver:self
selector:@selector(playbackFinished:)
name:AVPlayerItemDidPlayToEndTimeNotification
object:self.player.currentItem];
}
//播放完成通知
-(void)playbackFinished:(NSNotification*)notification{
NSLog(@"视频播放完成.");
}
第五步:播放、暂停视频
[self.player play];//播放视频
[self.player pause];//暂停视频
以上五步就是播放视频的基本步骤,如果上面的代码让你看的头疼,你也可以去下载文中的代码,根据Demo效果一步一步去看这些方法(Demo中的代码更复杂一些)。
注意:如果你是将文中的代码拷贝到你新建的工程,记得在 Info.plist 中添加
Info.plist截图允许工程支持HTTP协议(因为文中演示视频是HTTP协议视频)。