使用 FFmpeg 做一个简单的 RTMP 推流
2016-12-29 本文已影响4843人
i_have_an_Apple
站在大牛肩膀上编程—— i_have_an_Apple😂
上面那句话是我扯淡呢,大家乐一乐就好
在本文的开始,我们要感谢真正的大牛,雷神。
这是雷神的博客
此篇文章,主要是对大牛 demo 的详细注释,本人最近在研究 FFmpeg 也有很多不懂的地方,欢迎各位小伙伴留言一起讨论。
FFmpeg 的编译与集成这里不再赘述,这里直接进入正题
首先定义一些相关的结构体,并将它们初始化
这边我提供了一个推流地址,这个地址是我自己搭建的 SRS(simple-rtmp-server) 服务器地址,因为服务器是收费的,我也不能一直开着,各位如果想测试 demo ,大家可以自己搭建一个虚拟机,同样可以作为服务器。
char input_str_full[500] = {0};
char output_str_full[500] = {0};
//文件地址
NSString *input_str = [[NSBundle mainBundle] pathForResource:@"war3end.mp4" ofType:nil];
//推流地址
NSString *output_str = @"rtmp://106.75.92.197/live/test";
//将地址写入到创建好的容器
sprintf(input_str_full, "%s",[input_str UTF8String]);
sprintf(output_str_full, "%s",[output_str UTF8String]);
NSLog(@"input_str_full:%s",input_str_full);
NSLog(@"output_str_full:%s",output_str_full);
//初始化
AVOutputFormat *ofmt = NULL;
//输入format和输出format
AVFormatContext *ifmt_ctx = NULL, *ofmt_ctx = NULL;
AVPacket pkt; //存储解码前数据
char in_filename[500] = {0};
char out_filename[500] = {0};
int ret, i;
int videoindex = -1;
int frame_index = 0;
int64_t start_time = 0;
//strcpy(a,b) 把 b 中的内容复制到 a 中
strcpy(in_filename, input_str_full);
strcpy(out_filename, output_str_full);
//注册
av_register_all();
//网络初始化
avformat_network_init();
读取本地的 MP4 文件,并打开推流地址
//Input
//打开文件,存储到输入上下文中
if ((ret = avformat_open_input(&ifmt_ctx, in_filename, 0, 0)) < 0) {
printf("未能打开文件\n");
goto end;
}
//查找输入流数据
if ((ret = avformat_find_stream_info(ifmt_ctx, 0)) < 0) {
printf("未能找到输入流数据\n");
goto end;
}
//输入流数据的数量循环
for (i = 0; i < ifmt_ctx->nb_streams; i ++) {
if (ifmt_ctx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
videoindex = i;
break;
}
}
//检查一些设置的参数有无问题
av_dump_format(ifmt_ctx, 0, in_filename, 0);
//Output
//初始化输出上下文
avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_filename); //RTMP
// avformat_alloc_output_context2(&ofmt_ctx, NULL, "mpegts", out_filename); //UDP
if (!ofmt_ctx) {
printf("输出上下文未能初始化成功\n");
ret = AVERROR_UNKNOWN;
goto end;
}
//从输出上下文中拿到存储输出信息的结构体
ofmt = ofmt_ctx->oformat;
for (i = 0; i < ifmt_ctx->nb_streams; i ++) {
//获取输入视频流
AVStream *in_stream = ifmt_ctx->streams[i];
//为输出上下文添加音视频流(初始化一个音视频流容器)
AVStream *out_stream = avformat_new_stream(ofmt_ctx, in_stream->codec->codec);
if (!out_stream) {
printf("未能成功添加音视频流\n");
ret = AVERROR_UNKNOWN;
goto end;
}
//将输入编解码器上下文信息 copy 给输出编解码器上下文
ret = avcodec_copy_context(out_stream->codec, in_stream->codec);
if (ret < 0) {
printf("copy 编解码器上下文失败\n");
goto end;
}
//这里没看懂....
out_stream->codec->codec_tag = 0;
if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER) {
out_stream->codec->flags = out_stream->codec->flags | CODEC_FLAG_GLOBAL_HEADER;
}
}
//检查参数设置有无问题
av_dump_format(ofmt_ctx, 0, out_filename, 1);
//打开输出地址(推流地址)
if (!(ofmt->flags & AVFMT_NOFILE)) {
ret = avio_open(&ofmt_ctx->pb, out_filename, AVIO_FLAG_WRITE);
if (ret < 0) {
printf("无法打开地址 '%s'",out_filename);
goto end;
}
}
接下来就是最重要的推流了
前面我们已经通过服务器地址打开了服务器,以我的理解推流实际上就是往服务器写入文件,然后剩下的事情比如转发等等就是服务器的工作了。
下面的代码中,计算
PTS(Presentation Time Stamp)显示播放时间戳
DTS(Decoding Time Stamp)解码时间戳
比较重要
//写视频文件头
ret = avformat_write_header(ofmt_ctx, NULL);
if (ret < 0) {
printf("在 URL 所在的文件写视频头出错\n");
goto end;
}
//取得时间
start_time = av_gettime();
while (1) {
//输入输出视频流
AVStream *in_stream, *out_stream;
//获取解码前数据
ret = av_read_frame(ifmt_ctx, &pkt);
if (ret < 0) {
break;
}
/*
PTS(Presentation Time Stamp)显示播放时间
DTS(Decoding Time Stamp)解码时间
*/
//没有显示时间(比如未解码的 H.264 )
if (pkt.pts == AV_NOPTS_VALUE) {
//AVRational time_base:时基。通过该值可以把PTS,DTS转化为真正的时间。
AVRational time_base1 = ifmt_ctx->streams[videoindex]->time_base;
//计算两帧之间的时间
/*
r_frame_rate 基流帧速率 (不是太懂)
av_q2d 转化为double类型
*/
int64_t calc_duration = (double)AV_TIME_BASE/av_q2d(ifmt_ctx->streams[videoindex]->r_frame_rate);
//配置参数
pkt.pts = (double)(frame_index*calc_duration)/(double)(av_q2d(time_base1)*AV_TIME_BASE);
pkt.dts = pkt.pts;
pkt.duration = (double)calc_duration/(double)(av_q2d(time_base1)*AV_TIME_BASE);
}
//延时
if (pkt.stream_index == videoindex) {
AVRational time_base = ifmt_ctx->streams[videoindex]->time_base;
AVRational time_base_q = {1,AV_TIME_BASE};
//计算视频播放时间
int64_t pts_time = av_rescale_q(pkt.dts, time_base, time_base_q);
//计算实际视频的播放时间
int64_t now_time = av_gettime() - start_time;
if (pts_time > now_time) {
//睡眠一段时间(目的是让当前视频记录的播放时间与实际时间同步)
av_usleep((unsigned int)(pts_time - now_time));
}
}
in_stream = ifmt_ctx->streams[pkt.stream_index];
out_stream = ofmt_ctx->streams[pkt.stream_index];
//计算延时后,重新指定时间戳
pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base, (AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base, (AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX));
pkt.duration = (int)av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
//字节流的位置,-1 表示不知道字节流位置
pkt.pos = -1;
if (pkt.stream_index == videoindex) {
printf("Send %8d video frames to output URL\n",frame_index);
frame_index++;
}
//向输出上下文发送(向地址推送)
ret = av_interleaved_write_frame(ofmt_ctx, &pkt);
if (ret < 0) {
printf("发送数据包出错\n");
break;
}
//释放
av_free_packet(&pkt);
}
//写文件尾
av_write_trailer(ofmt_ctx);
最后是一个 end 节点,上述过程中有多个跳转 end 节点,在出错时结束程序并释放各个结构体
//end 节点
end:
//关闭输入上下文
avformat_close_input(&ifmt_ctx);
//关闭输出上下文
if (ofmt_ctx && !(ofmt->flags & AVFMT_NOFILE)) {
avio_close(ofmt_ctx->pb);
}
//释放输出上下文
avformat_free_context(ofmt_ctx);
if (ret < 0 && ret != AVERROR_EOF) {
printf("发生错误\n");
return;
}
return;
按照惯例,在这最后的最后,放上 demo 源码
点这里点这里点这里点这里