FFmpeg笔记(四)--编码过程
2020-05-07 本文已影响0人
rookiesss
编码过程可以看做解码的逆过程,语法、思路基本一致。
1.导入头文件,比解码多用到个image工具类。
#import <libavformat/avformat.h>
#import <libswscale/swscale.h>
#import <libswresample/swresample.h>
#import <libavutil/pixdesc.h>
#import <libavutil/imgutils.h>
2.注册协议、格式、编解码器。
av_register_all();
3.初始化上下文,获取输出文件格式。
AVFormatContext *avformat_context = avformat_alloc_context();
const char *coutFilePath = [outFilePath UTF8String];
AVOutputFormat *avoutput_format = av_guess_format(NULL,coutFilePath,NULL);
avformat_context->oformat = avoutput_format;
4.打开输出文件。
if (avio_open(&avformat_context->pb,coutFilePath,AVIO_FLAG_WRITE) < 0) {
NSLog(@"打开输出文件失败");
return;
}
5.获取编码器上下文并设置音视频编码器。
视频编码器:
AVStream *av_video_stream = avformat_new_stream(avformat_context,NULL);
AVCodecContext *avcodec_context = avcodec_alloc_context3(NULL);
if (avcodec_context == NULL) {
NSLog(@"Could not allocate AVCodecContext\n");
return;
}
int avcodec_parameters_to_context_result = avcodec_parameters_to_context(avcodec_context, av_video_stream->codecpar);
if (avcodec_parameters_to_context_result != 0) {
// 0 成功
NSLog(@"获取解码器上下文失败");
return;
}
avcodec_context->codec_id = avoutput_format->video_codec;
avcodec_context->codec_type = AVMEDIA_TYPE_VIDEO;
avcodec_context->pix_fmt = AV_PIX_FMT_YUV420P;
avcodec_context->width = 640;
avcodec_context->height = 352;
//每1秒25帧
avcodec_context->time_base.num = 1;
avcodec_context->time_base.den = 25;
//码率->单位时间传送的数据位数
avcodec_context->bit_rate = 468000;
avcodec_context->gop_size = 250;
//量化系数越小,视频越是清晰
//一般情况下都是默认值,最小量化系数默认值是10,最大量化系数默认值是51
avcodec_context->qmin = 10;
avcodec_context->qmax = 51;
//设置b帧最大值->设置不需要B帧
avcodec_context->max_b_frames = 0;
// 查找编码器h264 (默认情况下FFmpeg没有编译进行h264库 需下载x264编译)
AVCodec *avcodec = avcodec_find_encoder(avcodec_context->codec_id);
if (avcodec == NULL) {
NSLog(@"找不到编码器");
return;
}
音频编码器:
AVStream *av_video_stream = avformat_new_stream(avformat_context,NULL);
AVCodecContext *avcodec_context = avcodec_alloc_context3(NULL);;
avcodec_parameters_to_context(avcodec_context, av_video_stream->codecpar);
//设置编解码器上下文->目标:设置为是一个音频编码器上下文->指定的是音频编码器
avcodec_context->codec_id = avcodec_alloc_context3(NULL);
//设置编码器类型->音频编码器
//视频编码器->AVMEDIA_TYPE_VIDEO
//音频编码器->AVMEDIA_TYPE_AUDIO
avcodec_context->codec_type = AVMEDIA_TYPE_AUDIO;
// 设置读取音频采样数据格式->编码的是音频采样数据格式->音频采样数据格式->pcm格式
//注意:这个类型是根据你解码的时候指定的解码的音频采样数据格式类型
avcodec_context->sample_fmt = AV_SAMPLE_FMT_S16;
//设置采样率
avcodec_context->sample_rate = 44100;
//立体声
avcodec_context->channel_layout = AV_CH_LAYOUT_STEREO;
//声道数量
int channels = av_get_channel_layout_nb_channels(avcodec_context->channel_layout);
avcodec_context->channels = channels;
//设置码率 基本的算法是:【码率】(kbps)=【视频大小 - 音频大小】(bit位) /【时间】(秒)
avcodec_context->bit_rate = 128000;
6.打开编码器。
视频编码器:
AVDictionary *param = 0;
if (avcodec_context->codec_id == AV_CODEC_ID_H264) {
//需要查看x264源码->x264.c文件
//第一个值:预备参数
//key: preset
//value: slow->慢
//value: superfast->超快
av_dict_set(¶m, "preset", "slow", 0);
//第二个值:调优
//key: tune->调优
//value: zerolatency->零延迟
av_dict_set(¶m, "tune", "zerolatency", 0);
}
if (avcodec_open2(avcodec_context, avcodec, ¶m) < 0) {
NSLog(@"打开编码器失败");
return;
}
音频编码器:
//查找音频编码器->aac libfdk_aac ffmpeg ./configre help 查看
AVCodec *avcodec = avcodec_find_encoder_by_name("libfdk_aac");
if (avcodec == NULL) {
NSLog(@"找不到音频编码器");
return;
}
if (avcodec_open2(avcodec_context,avcodec,NULL)<0) {
NSLog(@"打开音频编码器失败");
return;
}
7.写入文件头信息。
int avformat_write_header_result = avformat_write_header(avformat_context, NULL);
if (avformat_write_header_result != 0) {
NSLog(@"写入头部信息失败");
return;
}
8.设置缓冲区。
视频缓冲区:
// 获取缓冲区大小
int buffer_size = av_image_get_buffer_size(avcodec_context->pix_fmt,
avcodec_context->width,
avcodec_context->height,
1);
//创建一个缓冲区
int y_size = avcodec_context->width * avcodec_context->height;
uint8_t *out_buffer = (uint8_t *) av_malloc(buffer_size);
//打开输入文件
const char *cinFilePath = [inFilePath cStringUsingEncoding:NSUTF8StringEncoding];
FILE *in_file = fopen(cinFilePath, "rb");
if (in_file == NULL) {
NSLog(@"文件不存在");
return;
}
//开辟一块内存空间->av_frame_alloc
AVFrame *av_frame = av_frame_alloc();
//设置缓冲区和AVFrame类型保持一致->填充数据 linesize:yuv/rgb这些值
av_image_fill_arrays(av_frame->data,
av_frame->linesize,
out_buffer,
avcodec_context->pix_fmt,
avcodec_context->width,
avcodec_context->height,
1);
音频缓冲区:
AVFrame *av_frame = av_frame_alloc();
av_frame->nb_samples = avcodec_context->frame_size;
av_frame->format = avcodec_context->sample_fmt;
//得到音频采样数据缓冲区大小
int buffer_size = av_samples_get_buffer_size(NULL,
avcodec_context->channels,
avcodec_context->frame_size,
avcodec_context->sample_fmt,
1);
//创建缓冲区
uint8_t *out_buffer = (uint8_t *) av_malloc(buffer_size);
avcodec_fill_audio_frame(av_frame,
avcodec_context->channels,
avcodec_context->sample_fmt,
(const uint8_t *)out_buffer,
buffer_size,
1);
9.开始编码。
视频编码:
AVPacket *av_packet = (AVPacket *) av_malloc(buffer_size);
int i = 0;
int result = 0;
int current_frame_index = 1;
while (true) {
//从yuv文件里面读取缓冲区 读取大小:y_size * 3 / 2
if (fread(out_buffer, 1, y_size * 3 / 2, in_file) <= 0) {
NSLog(@"读取完毕...");
break;
} else if (feof(in_file)) {
break;
}
// 将缓冲区数据->转成AVFrame类型
//给AVFrame填充数据 void * restrict->->转成->AVFrame->ffmpeg数据类型
//Y值 4
av_frame->data[0] = out_buffer;
//U值
av_frame->data[1] = out_buffer + y_size;
//V值 1
av_frame->data[2] = out_buffer + y_size * 5 / 4;
av_frame->pts = i;
//注意时间戳
i++;
//总结:这样一来我们的AVFrame就有数据了
//发送一帧视频像素数据
int send_result = avcodec_send_frame(avcodec_context, av_frame);
int receive_result = 0;
if (send_result == AVERROR(EAGAIN)) {
while (receive_result != AVERROR(EAGAIN)) {
receive_result = avcodec_receive_packet(avcodec_context, av_packet);
}
} else {
receive_result = avcodec_receive_packet(avcodec_context, av_packet);
if (receive_result == AVERROR(EAGAIN)) {
continue;
}
}
//编码成功
//将视频压缩数据->写入到输出文件中->outFilePath
av_packet->stream_index = av_video_stream->index;
result = av_write_frame(avformat_context, av_packet);
NSLog(@"当前是第%d帧", current_frame_index);
current_frame_index++;
//是否输出成功
if (result < 0) {
NSLog(@"输出一帧数据失败");
return;
}
}
//写入剩余帧数据->可能没有
flush_encoder(avformat_context, 0);
//写入文件尾部信息
av_write_trailer(avformat_context);
音频编码:
AVPacket *av_packet = (AVPacket *) av_malloc(buffer_size);
//循环读取音频帧
int frame_current = 1;
int i = 0, ret = 0;
//即将AVFrame(存储pcm采样数据)编码为AVPacket (acc)
while (true) {
// 读取一帧音频采样数据
if (fread(out_buffer, 1, buffer_size, in_file) <=0) {
NSLog(@"读取数据失败");
break;
} else if (feof(in_file)) {
break;
}
//设置音频采样数据格式
av_frame->data[0] = out_buffer;
av_frame->pts = i;
i++;
// 编码一帧音频采样数据->得到音频压缩数据->aac
// 发送一帧音频采样数据
ret = avcodec_send_frame(avcodec_context, av_frame);
if (ret != 0) {
NSLog(@"发送数据失败");
}
// 编码一帧音频采样数据
ret = avcodec_receive_packet(avcodec_context, av_packet);
if (ret == 0) {
/**第十一步:将编码后的音频码流写入文件*/
NSLog(@"当前编码到了第%d帧", frame_current);
frame_current++;
av_packet->stream_index = audio_st->index;
ret = av_write_frame(avformat_context, av_packet);
if (ret < 0) {
NSLog(@"main","写入失败");
return;
}
} else {
NSLog(@"无采样数据编码");
return;
}
}
//输入的像素数据读取完成后调用此函数。用于输出编码器中剩余的AVPacket。
ret = flush_encoder(avformat_context, 0);
if (ret < 0) {
NSLog(@"无剩余压缩包");
return;
}
// 写文件尾(对于某些没有文件头的封装格式,不需要此函数。比如说MPEG2TS)
av_write_trailer(avformat_context);
10.释放内存。
avcodec_close(avcodec_context);
av_free(av_frame);
av_free(out_buffer);
av_free_packet(av_packet);
avio_close(avformat_context->pb);
avformat_free_context(avformat_context);
fclose(in_file);