视频录制——1.不加特效输出到屏幕

2017-09-28  本文已影响0人  猫侠

CameraManager

收集摄像头硬件信息
class  Camera{

    // 获取摄像头数量
    public native static int getNumberOfCameras();

    // 获取的信息包含:
    // facing:前置or后置
    // orientation:摄像头与屏幕角度
    // canDisableShutterSound:是否可以关闭拍照声音
    public static void getCameraInfo(int cameraId, CameraInfo cameraInfo);

    public Parameters getParameters();
}

Parameters 包含的信息有:
预览相关的:
getPreviewSize:预览尺寸
getSupportedPreviewSizes:支持的预览尺寸列表
getPreferredPreviewSizeForVideo:推荐的视频预览尺寸
getPreviewFpsRange:视频预览帧率
getSupportedPreviewFpsRange:支持的视频预览帧率
getPreviewFormat:预览图像格式
getSupportedPreviewFormats:支持的预览图像格式

输出图片相关的:
getPictureSize:拍摄照片的尺寸
getSupportedPictureSizes:支持的拍摄照片的尺寸
getJpegQuality:拍摄照片的质量
getPictureFormat:拍摄照片的格式
getSupportedPictureFormats:支持的拍摄照片的格式

输出视频相关的:
getSupportedVideoSizes:支持的视频输出尺寸列表

缩略图相关的:
getJpegThumbnailSize:缩略图尺寸
getSupportedJpegThumbnailSizes:支持的缩略图尺寸
getJpegThumbnailQuality:缩略图质量
没有格式,是因为缩略图只能是JPG的

图像增强相关的:
白平衡、闪光灯and so on……

视频尺寸的计算

如果设备支持“视频的预览尺寸和输出尺寸不同”,那么getSupportedVideoSizes返回一个数组,其中的元素可以作为MediaRecorder.setVideoSize()的参数;否则返回null。
也就是说,更一般的情况下,预览尺寸和输出尺寸是相同的,getSupportedVideoSizes是不用的。所以以下统称视频尺寸。
定义两个变量:
exceptSize:用户希望的视频尺寸,也是用于预览视频的SurfaceView或TextureView的尺寸
previewSize:计算得到的实际的视频尺寸
视频尺寸计算的原则是:
previewSize不能超过getPreferredPreviewSizeForVideo;
previewSize不能小于exceptSize;
previewSize的宽高比“最好”等于getPreferredPreviewSizeForVideo的宽高比;
previewSize要尽量小。

打开/关闭摄像头
class  Camera{

    // 打开摄像头,cameraId 取 0到getNumberOfCameras - 1
    public static Camera open(int cameraId);

    // 关闭摄像头
    public final void release();
}

打开关闭的操作都要在子线程中做。

CameraDevice单例模式;

// 接收用户传来的参数,创建并初始化CameraManager、工作子线程
public void init(int facing, int exceptWidth, int exceptHeight, SurfaceHolder displaySurface);

// 创建图像录制任务,实际是向子线程发消息,打开摄像头,在摄像头开启成功的回调中,才真正创建RecorderMission
public void createMission();

从摄像头输出到显示到屏幕上

摄像头录入的图像数据 -> SufaceTexture -> OpenGL texture -> 帧缓冲区 -> EGLSurface -> Surface -> 屏幕

1.摄像头录入的图像数据 -> SufaceTexture -> OpenGL texture

这部分封装在RecorderMission中。

使surfaceTexture作为摄像头录入的图像数据的输出目的地

camera.setPreviewTexture(surfaceTexture);

这个surfaceTexture是根据texture的索引建立的

public class SurfaceTexture{
    // 构造一个SurfaceTexture,to stream images to a given OpenGL texture.
    public SurfaceTexture(int texName)
}

texture的索引是创建的时候由OpenGL返回的

public class GLES20{
    // 创建一个OpenGL texture
    // n:要创建的数量
    // textures:装载texture的索引,length = n
    // offset:偏移
    public static native void glGenTextures(int n, int[] textures, int offset);
}
2.texture -> 帧缓冲区

这部分封装在BeautyRender中。在另一篇中记录。

3.帧缓冲区 -> EGLSurface

帧缓冲区是显存上一块唯一区域,而EGLSurface是内存中的对象,可以有多个,那么帧缓冲区是对应哪一个EGLSurface呢?

public interface EGL10{
    // display是对本地图像系统的抽象
    // draw和read都是对target的抽象,draw表示target向这个EGLSurface画,read表示这个EGLSurface从target读,效果是一样的,只是主被动不同
    // context包含OpenGL的配置信息
    // 调用后OpenGL的代码会运行在当前线程中
    boolean  eglMakeCurrent(EGLDisplay display, EGLSurface draw, EGLSurface read, EGLContext context);
}
4.EGLSurface -> Surface

这一步把二维图像数据从OpenGL的操作空间传递到了本地图像系统

public interface EGL10{

    // native_window就是Surface,两者建立了联系
    EGLSurface  eglCreateWindowSurface(EGLDisplay display, EGLConfig config, Object native_window, int[] attrib_list);

    // 把二维像素数据从EGLSurface对应的target复制到Surface对应的匿名共享内存
    boolean  eglSwapBuffers(EGLDisplay display, EGLSurface surface);
}
5.Surface -> 屏幕

Surface是SurfaceView或TexureView提供的。Surface -> 屏幕的过程就是Andorid的图像系统的显示过程。

上一篇下一篇

猜你喜欢

热点阅读