定制化编译ffmpeg

2018-10-27  本文已影响16人  dongzi711

在之前写过一篇文章编译FFmpeg for Android,简单的讲了一下如何在Linux下编译ffmpeg,今天在这里再根据自己的实践经验说一下如何定制化自己需要的ffmpeg库。

项目实战

需求:
读取视频文件,将其转换成yuv,进行保存。
针对这一需求,我们定制化自己的.so库,让其尽可能的小

需求c代码实现

#include <jni.h>
#include <android/log.h>
#define LOGI(FORMAT,...) __android_log_print(ANDROID_LOG_INFO,"jason",FORMAT,##__VA_ARGS__);
#define LOGE(FORMAT,...) __android_log_print(ANDROID_LOG_ERROR,"jason",FORMAT,##__VA_ARGS__);

//封装格式
#include "libavformat/avformat.h"
//解码
#include "libavcodec/avcodec.h"
//缩放
#include "libswscale/swscale.h"

JNIEXPORT void JNICALL
Java_com_ffmpeg_1study_MainActivity_video_1decode(JNIEnv *env, jobject instance, jstring input_,
                                                  jstring output_) {
    const char *input_cstr = (*env)->GetStringUTFChars(env, input_, 0);
    const char *output_cstr = (*env)->GetStringUTFChars(env, output_, 0);


    //1.注册组件
    av_register_all();

    //封装格式上下文
    AVFormatContext *pFormatCtx = avformat_alloc_context();

    //2.打开输入视频文件
    int err_code=avformat_open_input(&pFormatCtx,input_cstr,NULL,NULL);

    LOGE("%s","打印名字");
//    LOGE("%s",pFormatCtx->iformat->name);
    if(err_code!= 0){
        char errbuf[1024];
        const char *errbuf_ptr = errbuf;
        av_strerror(err_code, errbuf_ptr, sizeof(errbuf));
        LOGE("Couldn't open file %s: %d(%s)", input_cstr, err_code, errbuf_ptr);
        LOGE("%s","打开输入视频文件失败");
        return;
    }
    //3.获取视频信息
    if(avformat_find_stream_info(pFormatCtx,NULL) < 0){
        LOGE("%s","获取视频信息失败");
        return;
    }

    //视频解码,需要找到视频对应的AVStream所在pFormatCtx->streams的索引位置
    int video_stream_idx = -1;
    int i = 0;
    for(; i < pFormatCtx->nb_streams;i++){
        //根据类型判断,是否是视频流
        if(pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO){
            video_stream_idx = i;
            break;
        }
    }

    //4.获取视频解码器
    AVCodecContext *pCodeCtx = pFormatCtx->streams[video_stream_idx]->codec;
    AVCodec *pCodec = avcodec_find_decoder(pCodeCtx->codec_id);
    if(pCodec == NULL){
        LOGE("%s","无法解码");
        return;
    }

    //5.打开解码器
    if(avcodec_open2(pCodeCtx,pCodec,NULL) < 0){
        LOGE("%s","解码器无法打开");
        return;
    }

    //编码数据
    AVPacket *packet = (AVPacket *)av_malloc(sizeof(AVPacket));

    //像素数据(解码数据)
    AVFrame *frame = av_frame_alloc();
    AVFrame *yuvFrame = av_frame_alloc();

    //只有指定了AVFrame的像素格式、画面大小才能真正分配内存
    //缓冲区分配内存
    uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(AV_PIX_FMT_YUV420P, pCodeCtx->width, pCodeCtx->height));
    //初始化缓冲区
    avpicture_fill((AVPicture *)yuvFrame, out_buffer, AV_PIX_FMT_YUV420P, pCodeCtx->width, pCodeCtx->height);


    //输出文件
    FILE* fp_yuv = fopen(output_cstr,"wb");

    //用于像素格式转换或者缩放
    struct SwsContext *sws_ctx = sws_getContext(
            pCodeCtx->width, pCodeCtx->height, pCodeCtx->pix_fmt,
            pCodeCtx->width, pCodeCtx->height, AV_PIX_FMT_YUV420P,
            SWS_BILINEAR, NULL, NULL, NULL);

    int len ,got_frame, framecount = 0;
    //6.一阵一阵读取压缩的视频数据AVPacket
    while(av_read_frame(pFormatCtx,packet) >= 0){
        //解码AVPacket->AVFrame
        len = avcodec_decode_video2(pCodeCtx, frame, &got_frame, packet);

        //Zero if no frame could be decompressed
        //非零,正在解码
        if(got_frame){
            //frame->yuvFrame (YUV420P)
            //转为指定的YUV420P像素帧
            sws_scale(sws_ctx,
                      frame->data,frame->linesize, 0, frame->height,
                      yuvFrame->data, yuvFrame->linesize);

            //向YUV文件保存解码之后的帧数据
            //AVFrame->YUV
            //一个像素包含一个Y
            int y_size = pCodeCtx->width * pCodeCtx->height;
            fwrite(yuvFrame->data[0], 1, y_size, fp_yuv);
            fwrite(yuvFrame->data[1], 1, y_size/4, fp_yuv);
            fwrite(yuvFrame->data[2], 1, y_size/4, fp_yuv);

            LOGI("解码%d帧",framecount++);
        }

        av_free_packet(packet);
    }

    fclose(fp_yuv);

    av_frame_free(&frame);
    avcodec_close(pCodeCtx);
    avformat_free_context(pFormatCtx);

    (*env)->ReleaseStringUTFChars(env, input_, input_cstr);
    (*env)->ReleaseStringUTFChars(env, output_, output_cstr);
}

我们回顾一下视频播放的流程图


4c5d1a67-8a0c-4692-9164-3e94be5f5a71.jpg

查看上面流程图,分析视频播放流程,我们应该根据步骤,选择自己需要的库

1).首先是视频的解封装,需要解封装协议(protocol)和视音频分离器(demuxer)
由于自己是读取本地视频,所以设置--enable-protocol=file,查看视频的格式


QQ截图20181027155123.png

如何查看视频的格式:去ffmpeg官网下载编译好的库,解压后会在bin文件夹下有三个.exe文件,在window搜索输入cmd进入dos页面 cd进入三个.exe文件的目录 (比如, cd C:\Users\Administrator\Desktop\ffmpeg-20181007-0a41a8b-win64-static\bin),再输入ffmpeg -i 然后拖动文件到dos窗口,点击Enter就得到上面的视频信息了

我们发现可能视音频分离器可以是图片上红色框里的 mov,mp4,m4a,3gp,3g2,mj2 所以我就选取了两次尝试一下,如下:
--enable-demuxer=mov
--enable-demuxer=m4a
经过测试,是可以这样设置的。

2).经过音视频分离器分离后我们得到了适配压缩数据,接下来就是视频解码了,所以需要配置解码器了,由视频的格式信息我们设置:
--enable-decoder=h264 \
--enable-decoder=YUV420P
需要解析每一帧数据,所以我们要配置解析器:
--enable-parser=h264

配置build_android.sh

#!/bin/bash
make clean

export NDK=/usr/ndk/android-ndk-r14b
export SYSROOT=$NDK/platforms/android-14/arch-arm/
export TOOLCHAIN=$NDK/toolchains/arm-linux-androideabi-4.9/prebuilt/linux-x86_64
export CPU=arm
export PREFIX=$(pwd)/android/$CPU
export ADDI_CFLAGS="-marm"

./configure --target-os=linux \
--prefix=$PREFIX --arch=arm \
--disable-everything \
--enable-protocol=file \
--enable-demuxer=mov \
--enable-demuxer=m4a \
--enable-decoder=h264 \
--enable-decoder=YUV420P \
--enable-parser=h264 \
--enable-neon \
--enable-small \
--enable-swscale \
--disable-doc \
--enable-shared \
--disable-static \
--disable-x86asm \
--disable-symver \
--enable-gpl \
--disable-ffmpeg \
--disable-ffplay \
--disable-ffprobe \
--disable-doc \
--disable-symver \
--cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \
--enable-cross-compile \
--sysroot=$SYSROOT \
--extra-cflags="-Os -fpic $ADDI_CFLAGS" \
--extra-ldflags="$ADDI_LDFLAGS" \
$ADDITIONAL_CONFIGURE_FLAG
make clean
make
make install
上一篇 下一篇

猜你喜欢

热点阅读