ios那些事儿iOS的新技术iOS开发

iOS视频开发-AVPlayer播放本地、远程视频

2016-11-09  本文已影响6512人  小小土豆dev

介绍AVPlayer使用之前,先给大家介绍一些《iOS常用的音频、视频框架》,大家了解一下,不必刻意去记,如果以后需要用到,再回过头查询。

一:MediaPlayer 框架

Media Player 框架是 iOS 平台上一个用于音频和视频播放的高层级接口,它包含了一个你可以在应用中直接使用的默认的用户界面。你可以使用它来播放用户在 iPod 库中的项目,或者播放本地文件以及网络流。

另外,这个框架也包括了查找用户媒体库中内容的 API,同时还可以配置像是在锁屏界面或者控制中心里的音频控件。

二:AudioToolbox 框架

AudioToolbox 这个库是C的接口,偏向于底层,用于在线流媒体音乐的播放,可以调用该库的相关接口自己封装一个在线播放器类。

三:AVFoundation 框架

AVFoundation 框架 是苹果的现代媒体框架,它包含了一些不同的用途的 API 和不同层级的抽象。其中有一些是现代 Objective-C 对于底层 C 语言接口的封装。除了少数的例外情况,AVFoundation 可以同时在 iOS 和 OS X 中使用。

AVFoundation 框架中常用的API:

AVAudioSession:是用于 iOS 系统中协调应用程序之间的音频播放的 API 的。

AVAudioPlayer:是一个高层级的 API 为你提供一个简单的接口,用来播放本地或者内存中的音频。

AVAudioRecorder:叫做录音机,提供了在应用程序中的音频记录能力。

AVPlayer:能播放本地、远程的音频、视频文件。基于Layer显示,得自己去编写控制面板。

AVAudioEngine:是播放和录制的 Objective-C 接口。

四:Audio Unit 框架

Audio Unit 框架是一个底层的 API;所有 iOS 中的音频技术都构建在 Audio Unit 这个框架之上。音频单元是用来加工音频数据的插件。一个音频单元链叫做音频处理图。

如果你需要非常低的延迟 (如 VoIP 或合成乐器)、回声消除、混音或者音调均衡的话,你可能需要直接使用音频单元,或者自己写一个音频单元。但是其中的大部分工作可以使用 AVAudioEngine 的 API 来完成。如果你不得不写自己的音频单元的话,你可以将它们与 AVAudioUnit 节点一起集成在 AVAudioEngine 处理图中。


MediaPlayer 使用

1、获取视频的URL

NSURL *url = [NSURL URLWithString:@"http://images.apple.com/media/cn/apple-events/2016/5102cb6c_73fd_4209_960a_6201fdb29e6e/keynote/apple-event-keynote-tft-cn-20160908_1536x640h.mp4"];

2、创建视频控制器

MPMoviePlayerViewController *playerViewController= [[MPMoviePlayerViewController alloc] initWithContentURL:url];

3.播放视频

[self presentMoviePlayerViewControllerAnimated:playerViewController];


AVPlayer 使用

在开发中,单纯使用AVPlayer类是无法显示视频的,要将视频层添加至AVPlayerLayer中,这样才能将视频显示出来。

1、先将在线视频链接存放在NSURL中,然后初始化AVPlayerItem对象,AVPlayerItem是管理资源的对象。

2、然后监听AVPlayerItem的 status 和 loadedTimeRange 属性,status 属性有三种状态:

typedef NS_ENUM(NSInteger, AVPlayerItemStatus) {

   AVPlayerItemStatusUnknown,

   AVPlayerItemStatusReadyToPlay,

   AVPlayerItemStatusFailed

};

1、当 AVPlayerItem 的 status 等于AVPlayerStatusReadyToPlay时代表视频已经可以播放了,我们就可以调用play方法播放了。

2、loadedTimeRange 属性代表已经缓冲的进度,监听此属性可以在UI中更新缓冲进度。

3、addPeriodicTimeObserverForInterval

给AVPlayer 添加time Observer 有利于我们去检测播放进度。

4、使用 AVPlayer 对象的 seekToTime 方法 可以控制视频播放进度。


下面是具体的代码(Demo地址),先给大家截图,看一下完整的效果:

视频截图

第一步:初始化 播放器对象 以及 播放器层。

- (void)initPlayer{

/ /创建播放器层

AVPlayerLayer*playerLayer = [AVPlayerLayer playerLayerWithPlayer:self.player];

playerLayer.frame = self.view.bounds;

[self.view.layer addSublayer:playerLayer];

}

//初始化播放器

-(AVPlayer*)player{

if(!_player) {

NSURL*url = [NSURLURLWithString:@"http://images.apple.com/media/cn/apple-events/2016/5102cb6c_73fd_4209_960a_6201fdb29e6e/keynote/apple-event-keynote-tft-cn-20160908_1536x640h.mp4"];

AVPlayerItem*playerItem=[AVPlayerItem playerItemWithURL:url];

_player= [AVPlayer playerWithPlayerItem:playerItem];

// 通过 KVO 监听AVPlayerItem的status和loadedTimeRange属性

[self addObserverToPlayerItem:playerItem];

// 给播放器添加进度更新 addPeriodicTimeObserverForInterval

[self addProgressObserver];

//给AVPlayerItem添加播放完成通知

[self addNotification];

}

return_player;

}

第二步:通过 KVO 监听AVPlayerItem的status和loadedTimeRange属性

-(void)addObserverToPlayerItem:(AVPlayerItem*)playerItem {

//监控状态属性,注意AVPlayer也有一个status属性,通过监控它的status也可以获得播放状态

[playerItemaddObserver:selfforKeyPath:@"status"options:NSKeyValueObservingOptionNewcontext:nil];

//监控网络加载情况属性

[playerItemaddObserver:selfforKeyPath:@"loadedTimeRanges"options:NSKeyValueObservingOptionNewcontext:nil];

}

-(void)observeValueForKeyPath:(NSString*)keyPath ofObject:(id)object change:(NSDictionary*)change context:(void*)context {

AVPlayerItem*playerItem=object;

if([keyPathisEqualToString:@"status"]) {

AVPlayerStatusstatus= [[changeobjectForKey:@"new"]intValue];

if(status==AVPlayerStatusReadyToPlay){

NSLog(@"正在播放...,视频总长度:%.2f",CMTimeGetSeconds(playerItem.duration));

}

}elseif([keyPathisEqualToString:@"loadedTimeRanges"]){

NSArray*array=playerItem.loadedTimeRanges;

CMTimeRangetimeRange = [array.firstObjectCMTimeRangeValue];//本次缓冲时间范围

floatstartSeconds =CMTimeGetSeconds(timeRange.start);

floatdurationSeconds =CMTimeGetSeconds(timeRange.duration);

NSTimeIntervaltotalBuffer = startSeconds + durationSeconds;//缓冲总长度

NSLog(@"共缓冲:%.2f",totalBuffer);

}

}

第三步:给播放器添加进度更新 addPeriodicTimeObserverForInterval

-(void)addProgressObserver{

AVPlayerItem*playerItem=self.player.currentItem;

UIProgressView*progress=self.progress;

//这里设置每秒执行一次

[self.playeraddPeriodicTimeObserverForInterval:CMTimeMake(1.0,1.0)queue:dispatch_get_main_queue()usingBlock:^(CMTimetime) {

floatcurrent=CMTimeGetSeconds(time);

floattotal=CMTimeGetSeconds([playerItemduration]);

NSLog(@"当前已经播放%.2fs.",current);

];

}

第四步:给AVPlayerItem添加播放完成通知

- (void)addNotification {

[[NSNotificationCenterdefaultCenter]addObserver:self

selector:@selector(playbackFinished:)

name:AVPlayerItemDidPlayToEndTimeNotification

object:self.player.currentItem];

}

//播放完成通知

-(void)playbackFinished:(NSNotification*)notification{

   NSLog(@"视频播放完成.");

}

第五步:播放、暂停视频

[self.player play];//播放视频

[self.player pause];//暂停视频

以上五步就是播放视频的基本步骤,如果上面的代码让你看的头疼,你也可以去下载文中的代码,根据Demo效果一步一步去看这些方法(Demo中的代码更复杂一些)。

注意:如果你是将文中的代码拷贝到你新建的工程,记得在 Info.plist 中添加

Info.plist截图

允许工程支持HTTP协议(因为文中演示视频是HTTP协议视频)。

上一篇下一篇

猜你喜欢

热点阅读