Android OpenGL音视频开发进阶Android音视频系列

OpenGL学习系列---点的绘制流程

2018-03-21  本文已影响78人  glumes

欢迎访问个人博客:https://glumes.com

终于要开始探索奇妙的 3D 世界了,OpenGL 搞起。

OpenGL 简介

OpenGL 是一种应用程序编程接口,它是一种可以对图形硬件设备特性进行访问的软件库。

重点:OpenGL 是一种接口,既然是接口,那么就必然要有实现。

事实上,它的实现是由显示设备厂商提供的,而且依赖于厂商提供的硬件设备。

OpenGL 常用于 CAD、虚拟实境、科学可视化程序和电子游戏开发。

在 Android 上使用的是 OpenGL ES,它是 OpenGL 的子集,在 OpenGL 的基础之上裁剪掉了一些非必要的部分,主要是针对手机、PAD 和游戏主机等嵌入式设备设计的。

在 Android 上开发 OpenGL 既可以使用 Java 也可以使用 C ,话不多说,撸起袖子就是干!

OpenGL 的绘制流程

学习 OpenGL 的绘制,最好还是先从 2D 绘制开始,逐渐过渡到 3D 绘制。

Android 为 OpenGL 的绘制提供了一个特定的视图GLSurfaceView,就像 SurfaceView 一样,它渲染绘制也可以在一个单独的线程中,而非主线程,毕竟 GLSurfaceView 就是继承自 SurfaceView 的。

在使用 GLSurfaceView 时,需要通过setRenderer方法给它设置一个渲染器,而主要的渲染工作就是由渲染器Renderer完成了。

通过继承GLSurfaceView.Renderer类来实现我们自己的渲染器程序,主要有如下三个方法:

实现渲染器程序时,首先要考虑三个问题:

而我们的程序也主要以解决上述三个问题为主,下面以 OpenGL 绘制一个点来讲解。

OpenGL 坐标

手机屏幕的坐标是以左上角为原点(0,0),向右为 X 轴正方形,向下为 Y 轴正方向,而 OpenGL 也有着它自己的一套坐标定义。

假设我们定义了一个点的坐标(4.3,2.1),也就是它的 X 轴坐标和 Y 轴坐标,而 OpenGL 最后会把我们定义的坐标映射手机屏幕的实际物理坐标上。

无论是 X 坐标还是 Y 坐标,OpenGL 都会把手机屏幕映射到 [-1,1] 的范围内。也就是说:屏幕的左边对应 X 轴的 -1 ,屏幕的右边对应 +1,屏幕的底边会对应 Y 轴的 -1,而屏幕的顶边就对应 +1。

不管屏幕是什么形状和大小,这个坐标范围都是一样的,例如下图所示:

blog_opengl_coordinate_small.png

所以,上面定义的坐标(4.3,2.1),最后是会被映射到手机屏幕之外的,处于不可见的状态。

这里,假定绘制一个位于原点的点(0,0),那么映射之后的位置就手机屏幕的中心了。

基本图元

解决了位置的问题,接下来就是形状和颜色的问题。

如同 Android 的 Canvas 对象提供了一些方法来完成基本的绘制:drawPoint、drawRect、drawLine 等,OpenGL 程序也提供且仅提供了三种基本的图元来完成绘制。

其他的所有形状都是基于这三种图元来完成的,比如矩形就可以看成是两个三角形拼成的。

由于我们要绘制的是一个点,在坐标系中,一个坐标就可以代替一个点了。假设要绘制一个三角形,那么在坐标系中就需要三个点才行了。

接下来就涉及到 OpenGL 如何把定义的点的数据绘制出来了。

渲染管线

首先要明白一个概念渲染管线

根据百度百科的定义,渲染管线也称为渲染流水线像素流水线像素管线,是显示芯片内部(GPU)处理图形信号相互独立的并行处理单元。

显卡的渲染管线就是显示核心的重要组成部分,是负责给图形配上颜色的一组专门通道。渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一。

现阶段的显卡都是分为顶点渲染像素渲染的。在显卡,内部分为两大区域,一个区域是顶点渲染单元(也叫顶点着色),主要负责描绘图形,也就是建立模型。一个区域是像素渲染管线,主要负责把顶点绘出的图形填上颜色。

[图片上传失败...(image-aff46c-1521681767281)]

上图就是 OpenGL 中渲染管线的一个处理流程。

可以看到,流程图从读取顶点数据开始,然后后执行两个着色器:

由于这两个着色器对于最后图形显示效果至关重要,并且它们还是可以通过编程来控制的,这也是为什么可编程渲染管线要优于固定编程管线了。

事实上,随着显示技术的发展,渲染管线将不复存在了,顶点着色器和渲染管线统一被流处理器(Stream Processors)所取代。

但是目前手机上 OpenGL 还是使用渲染管线中,有了渲染管线,我们就可以完成点的形状绘制和着色两大问题了,接下来的工作也是围绕这条渲染管线开始的。

内存拷贝

当定义完了顶点坐标,并且明确了下一步:顶点坐标将要通过渲染管线进行一系列处理,那么接下来就是如何把顶点坐标传递给渲染管线了。

OpenGL 的实现是由显示设备厂商提供的,它作为本地系统库直接运行在硬件上。而我们定义的顶点 Java 代码是运行在虚拟机上的,这就涉及到了如何把 Java 层的内存复制到 Native 层了。

一种方法是直接使用JNI开发,直接调用本地系统库,也就是用 C++ 来开发 OpenGL,这种实现肯定要学会的。

另一种方法就是在 Java 层把内存块复制到 Native 层。

使用ByteBuffer.allocateDirect()方法就可以分配一块 Native 内存,这块内存不会被 Java 的垃圾回收器管理。

它的使用方法大致都一样,抽出公共的模板:

   // 声明一个字节缓冲区 FloatBuffer
   private FloatBuffer floatBuffer;
   // 定义顶点数据
   float[] vertexData = new float[16];
   // FloatBuffer 初始化工作并放入顶点数据
   floatBuffer = ByteBuffer
       .allocateDirect(vertexData.length * Constant.BYTES_PRE_FLOAT)
       .order(ByteOrder.nativeOrder())
       .asFloatBuffer()
       .put(vertexData);

allocateDirect方法分配了内存并指定了大小之后,下一步就是告诉 ByteBuffer 按照本地字节序组织它的内容。本地字节序是指,当一个值占用多个字节时,比如 32 位整型数,字节按照从最重要位到最不重要位或者相反顺序排列。

接下来asFloatBuffer方法可以得到一个反映底层字节的 FloatBuffer 类实例,避免直接操作单独的字节,而是使用浮点数。

最后,通过put方法就可以把数据从 Java 层内存复制到 Native 层了,当进程结束时,这块内存就会被释放掉。

顶点着色器

接下来可编程的部分了,定义着色器(Shader)程序。

使用不同的着色器对输入的图元数据执行计算操作,判断它们的位置、颜色,以及其他渲染属性。

首先是顶点着色器。

在渲染管线中传输的每个顶点坐标位置,OpenGL 都会调用一个顶点着色器来处理顶点相关的数据,这个处理过程可以很复杂,也可以很简单。

想要定义一个着色器程序,还要通过一种特殊的语言去编写:OpenGL Shading Language,简称GLSL.

GLSL语言类似于 C 语言或者 Java 语言,它的程序入口也是一个名为main的函数。关于 GLSL 的部分,完全可以单独写一篇博客了,暂时先不详细阐述。

下面就是一个简单的顶点着色器程序:

attribute vec4 a_Position;
void main()
{
    gl_Position = a_Position;
    gl_PointSize = 30.0;
}

着色器类似于一个函数调用的方式——数据传输进来,经过处理,然后再传输出去。

其中,gl_Positiongl_PointSize就是着色器中的特殊全局变量,它接收输入。

a_Position就是我们定义的一个变量,它是vec4类型的。而attribute只能存在于顶点着色器中,一般用于保存顶点数据,它可以在数据缓冲区中读取数据。

数据缓存区中的顶点坐标会赋值给 a_Position ,a_Position 会传递给 gl_Position。

而 gl_PointSize 则固定了点的大小为 30。

有了顶点着色器,就能够为每个顶点生成最终的位置,接下来就是定义片段着色器。

根据上图的渲染管线,顶点着色器到片段着色器之间,还要经过组装图元光栅化图元

光栅化技术

移动设备的显示屏由成百上千个小的、独立的部件组成,他们称为像素。每个像素通常由三个单独的子组件构成,它们发出红色、绿色和蓝色的光,因为每个像素都非常小,人的眼睛会把红色、绿色和蓝色的光混合在一起,从而创造出巨量的颜色范围。

OpenGL 就是通过 光栅化 技术的过程把每个点、直线及三角形分解成大量的小片段,它们可以映射到移动设备显示屏的像素上,从而生成一幅图像。这些片段类似于显示屏上的像素,每一个都包含单一的纯色。

如下图所示:

[图片上传失败...(image-18472-1521681767281)]

OpenGL 通过光栅化技术把一条直线映射为一个片段集合,显示系统通常会把这些片段直接映射到屏幕上的像素,结果一个片段就对应一个像素。

明白了这样的显示原理,就可以在其中做一些操作了,这就是片段着色器的功能了。

片段着色器

片段着色器的主要目的就是告诉 GPU 每个片段的最终颜色应该是什么。

对于基本图元的每个片段,片段着色器都会被调用一次,因此,如果一个三角形被映射到 10000 个片段,那么片段着色器就会被调用 10000 次。

下面就是一个简单的片段着色器程序:

precision mediump float;
uniform vec4 u_Color;
void main()
{
    gl_FragColor = u_Color;
}

其中,gl_FragColor变量就是 OpenGL 最终渲染出来的颜色的全局变量,而u_Color就是我们定义的变量,通过在 Java 层绑定到 u_Color变量并给它赋值,就会传递到 Native 层的gl_FragColor中。

而第一行的mediump指的就是片段着色器的精度了,有三种可选,这里用中等精度就行了。uniform则表示该变量是不可变的了,也就是固定颜色了,目前显示固定颜色就好了。

编译 OpenGL 程序

明白了着色器的功能和光栅化技术之后,对渲染管线的流程也就更加清楚了,接下来就是编译 OpenGL 的程序了。

编译 OpenGL 程序基本流程如下:

编译着色器

创建新的文件编写着色器程序,然后再从文件以字符串的形式中读取文件内容。这样会比把着色器程序写成字符串的形式更加清晰。

当读取了着色器程序内容之后,就可以编译了。

   // 编译顶点着色器
    public static int compileVertexShader(String shaderCode) {
        return compileShader(GL_VERTEX_SHADER, shaderCode);
    }
    
    // 编译片段着色器
    public static int compleFragmentShader(String shaderCode) {
        return compileShader(GL_FRAGMENT_SHADER, shaderCode);
    }

    // 根据类型编译着色器
    private static int compileShader(int type, String shaderCode) {
        // 根据不同的类型创建着色器 ID
        final int shaderObjectId = glCreateShader(type);
        if (shaderObjectId == 0) {
            return 0;
        }
        // 将着色器 ID 和着色器程序内容连接
        glShaderSource(shaderObjectId, shaderCode);
        // 编译着色器
        glCompileShader(shaderObjectId);
        // 以下为验证编译结果是否失败
        final int[] compileStatsu = new int[1];
        glGetShaderiv(shaderObjectId, GL_COMPILE_STATUS, compileStatsu, 0);
        if ((compileStatsu[0] == 0)) {
            // 失败则删除
            glDeleteShader(shaderObjectId);
            return 0;
        }
        return shaderObjectId;
    }

以上程序主要就是通过glCreateShader方法创建了着色器 ID,然后通过glShaderSource连接上着色器程序内容,接下来通过glCompileShader编译着色器,最后通过glGetShaderiv验证是否失败。

glGetShaderiv函数比较通用,在着色器阶段和 OpenGL 程序阶段都会通过它来验证结果。

创建 OpenGL 程序和着色器链接

接下来就是创建 OpenGL 程序并加着色器加进来。

  public static int linkProgram(int vertexShaderId, int fragmentShaderId) {
        // 创建 OpenGL 程序 ID
        final int programObjectId = glCreateProgram();
        if (programObjectId == 0) {
            return 0;
        }
        // 链接上 顶点着色器
        glAttachShader(programObjectId, vertexShaderId);
        // 链接上 片段着色器
        glAttachShader(programObjectId, fragmentShaderId);
        // 链接着色器之后,链接 OpenGL 程序
        glLinkProgram(programObjectId);
        final int[] linkStatus = new int[1];
        // 验证链接结果是否失败
        glGetProgramiv(programObjectId, GL_LINK_STATUS, linkStatus, 0);
        if (linkStatus[0] == 0) {
            // 失败则删除 OpenGL 程序
            glDeleteProgram(programObjectId);
            return 0;
        }
        return programObjectId;
    }

首先通过glCreateProgram程序创建 OpenGL 程序,然后通过glAttachShader将着色器程序 ID 添加上 OpenGL 程序,接下来通过glLinkProgram链接 OpenGL 程序,最后通过glGetProgramiv来验证链接是否失败。

验证 OpenGL 程序

链接了 OpenGL 程序后,就是验证 OpenGL 是否可用。

 public static boolean validateProgram(int programObjectId) {
        glValidateProgram(programObjectId);
        final int[] validateStatus = new int[1];
        glGetProgramiv(programObjectId, GL_VALIDATE_STATUS, validateStatus, 0);
        return validateStatus[0] != 0;

    }

通过glValidateProgram函数验证,并再次通过glGetProgramiv函数验证是否失败。

确定使用 OpenGL 程序

当一切完成后,就是确定使用该 OpenGL 程序了。

// 创建 OpenGL 程序过程
 public static int buildProgram(Context context, int vertexShaderSource, int fragmentShaderSource) {
        int program;

        int vertexShader = compileVertexShader(
                TextResourceReader.readTextFileFromResource(context, vertexShaderSource));

        int fragmentShader = compleFragmentShader(
                TextResourceReader.readTextFileFromResource(context, fragmentShaderSource));

        program = linkProgram(vertexShader, fragmentShader);

        validateProgram(program);

        return program;
    }

// 创建完毕后,确定使用
    mProgram = ShaderHelper.buildProgram(context, R.raw.point_vertex_shader
                , R.raw.point_fragment_shader);

        glUseProgram(mProgram);

将上述的过程合并起来,buildProgram函数返回的 OpenGL 程序 ID 即可,通过glUseProgram函数表示使用该 OpenGL 程序。

绘制

完成了 OpenGL 程序的编译,就是最后的绘制了,再回到渲染器 Renderer里面。

public class PointRenderer extends BaseRenderer {

    private Point mPoint;
    public PointRenderer(Context mContext) {
        super(mContext);
    }

    @Override
    public void onSurfaceCreated(GL10 gl, EGLConfig config) {
        super.onSurfaceCreated(gl, config);
        glClearColor(0.0f, 0.0f, 0.0f, 0.0f);
        // 在 onSurfaceCreated 里面初始化,否则会报线程错误
        mPoint = new Point(mContext);
        // 绑定相应的顶点数据
        mPoint.bindData();
    }
    
    @Override
    public void onSurfaceChanged(GL10 gl, int width, int height) {
        // 确定视口大小
        glViewport(0, 0, width, height);
    }

    @Override
    public void onDrawFrame(GL10 gl) {
        // 清屏
        glClear(GL_COLOR_BUFFER_BIT);
        // 绘制
        mPoint.draw();
    }
}

onSurfaceCreated函数里面做初始化工作,绑定数据等;在onSurfaceChanged方法里面确定视图大小,在onDrawFrame里面执行绘制。

为了简化渲染流程,把所有的操作都放在放在要渲染的对象里面去了,声明一个 Point 对象,代表要绘制的点。

public class Point extends BaseShape {

    // 着色器中定义的变量,在 Java 层绑定并赋值
    private static final String U_COLOR = "u_Color";
    private static final String A_POSITION = "a_Position";
    private int aColorLocation;
    private int aPositionLocation;
    
    float[] pointVertex = {
            0f, 0f
    };

    public Point(Context context) {
        super(context);
        mProgram = ShaderHelper.buildProgram(context, R.raw.point_vertex_shader
                , R.raw.point_fragment_shader);
        glUseProgram(mProgram);
        vertexArray = new VertexArray(pointVertex);
        POSITION_COMPONENT_COUNT = 2;
    }

    @Override
    public void bindData() {
        //绑定值
        aColorLocation = glGetUniformLocation(mProgram, U_COLOR);
        aPositionLocation = glGetAttribLocation(mProgram, A_POSITION);
        // 给绑定的值赋值,也就是从顶点数据那里开始读取,每次读取间隔是多少
        vertexArray.setVertexAttribPointer(0, aPositionLocation, POSITION_COMPONENT_COUNT,
                0);
    }

    @Override
    public void draw() {
        // 给绑定的值赋值
        glUniform4f(aColorLocation, 0.0f, 0.0f, 1.0f, 1.0f);
        glDrawArrays(GL_POINTS, 0, 1);
    }
}

在 Point 的构造函数中,编译并使用 OpenGL 程序,而在 bindData函数中,通过glGetUniformLocationglGetAttribLocation函数绑定了我们在 OpenGL 中声明的变量u_Colora_Position,要注意的是,attribute类型和uniform类型所对应的方法是不同的,最后通过给POSITION_COMPONENT_COUNT变量赋值,指定每个顶点数据的个数为 2 。

绑定了变量之后,接下来就是给他们赋值了,对于uniform类型变量,由于是固定值,所以直接调用glUniform4f方法给其赋值就好了,而attribute类型变量,则需要对应顶点数据中的值了,vertexArray.setVertexAttribPointer方法就是完成这个任务的。

    // 给某个顶点数据绑定值,并 Enable 使能
    public void setVertexAttribPointer(int dataOffset, int attributeLocation, int componentCount, int stride) {
        floatBuffer.position(dataOffset);
        glVertexAttribPointer(attributeLocation, componentCount, GL_FLOAT, false, stride, floatBuffer);
        glEnableVertexAttribArray(attributeLocation);
        floatBuffer.position(0);
    }

setVertexAttribPointer方法中,使用了glVertexAttribPointer方法来绑定值,它的参数释义如下所示:

[图片上传失败...(image-42be32-1521681767281)]

通过glEnableVertexAttribArray方法来开启使用即可。

最后通过glDrawArrays方法来执行最后的绘制,GL_POINTS代表绘制的类型,而参数0,1则代表绘制的点的范围,它是一个左闭右开的区间。

以上步骤就完成了一个点的绘制,如图所示:

[图片上传失败...(image-e5849d-1521681767281)]

具体代码详情,可以参考我的 Github 项目:

https://github.com/glumes/AndroidOpenGLTutorial

小结

使用 OpenGL 进行绘制的原理,也就是按照 GPU 的渲染管线流程,提供了顶点数据之后,执行顶点着色器,然后执行片段着色器,最后映射到手机屏幕上。

而作为可编程的阶段,我们就是在顶点着色器和片段着色器中做我们想要的处理,编写了着色器代码之后,通过编译链接成 OpenGL 程序。然后给 OpenGL 中设定的变量绑定对应的值,从顶点数据何处开始读取值。到这里,一切准备工作就做完了。

最后就在在渲染器 Renderer 中开始绘制了。

参考

1、《OpenGL ES 应用开发实践指南》
2、《OpenGL 编程指南》(原书第八版)
3、https://github.com/glumes/AndroidOpenGLTutorial

问题

1、https://stackoverflow.com/questions/11286819/opengl-es-api-with-no-current-context

提示报错:

call to OpenGL ES API with no current context (logged once per thread)

是因为,在 Render 的构造函数中初始化变量,并不是 OpenGL 的线程中。而是在主线程中。

最后,如果觉得文章不错,欢迎关注微信公众号:纸上浅谈


纸上浅谈
上一篇下一篇

猜你喜欢

热点阅读