OpenGL向量、矩阵

2020-07-16  本文已影响0人  奉灬孝

向量

在 3D 笛卡尔坐标系, 基本上一个顶点就是XYZ 坐标空间上的⼀个位置。而在空间中给定的一个位置恰是由一个单独的 XYZ 定义的。 ⽽这样的 XYZ 就是向量
向量长度(向量的模)计算公式:

向量长度计算公式
我们把向量长度(向量的模)为1的向量称为单位向量
OpenGL如何定义向量

math3d库,有2个数据类型,能够表示一个三维或者四维向量。
M3DVector3f可以表示⼀个三维向量量(x,y,z),
M3DVector4f则可以表示⼀一个四维向量量(x,y,z,w)。
在典型情况下,w坐标设为1.0。x,y,z值通过除以w,来进行缩放。而除以1.0则本质上不改变x,y,z值。

//三维向量/四维向量的声明
typedef float M3DVector3f[3]; typedef float M3DVector4f[4];
//声明一个三维向量 M3DVector3f:类型 vVector:变量名 
M3DVector3f vVector;
//声明一个四维向量并初始化一个四维向量 
M3DVector4f vVertex = {0,0,1,1};
//声明一个三分量顶点数组,例如⽣成⼀个三角形 
M3DVector3f vVerts[] = {
-0.5f,0.0f,0.0f, 0.5f,0.0f,0.0f, 0.0f,0.5f,0.0f
};
向量点乘

前提条件: 2个向量必须为单位向量;
动作: 2个三维向量之间进行点乘
结果:返回⼀个[-1,1]范围的值,是一个标量。 这个值其实就是夹角的cos值(余弦值)

向量点乘.png

单位化向量计算公式:使⽤用⼀个非零向量除以它的模(向量的⻓度), 就可以得到⽅向相同的单位向量。如下所示:

(x/|xyz|, y/|xyz|, z/|xyz|);

math3d库中关于点乘的API

  1. m3dDotProduct3 函数获得2个向量量之间的点乘结果;
float m3dDotProduct3(const M3DVector3f u,const M3DVector3f v);
  1. m3dGetAngleBetweenVector3 即可获取2个向量量之间夹⻆角的弧度值;
float m3dGetAngleBetweenVector3(const M3DVector3f u,const
M3DVector3f v);
向量叉乘

2个向量之间叉乘就可以得到另外一个向量,新的向量会与原来2个向量定义的平面垂直。
前提: 2个普通向量
动作: 向量与向量叉乘
结果: 向量(垂直于原来2个向量定义的平面的向量)

向量V叉乘向量U得到垂直于V、U的向量.png
math3d 库中提供了了关于叉乘的API
  1. m3dCrossProduct3 函数获得2个向量之间的叉乘结果得到一个新的向量
void m3dCrossProduct3(M3DVector3f result,const M3DVector3f u,const  
M3DVector3f v);

矩阵

矩阵分类.png

OpenGL中的矩阵都是4x4的,每一列都是由4个元素组成的向量,如图所示

单元矩阵
GLFloat m[] = {
  1,0,0,0, //X Column
  0,1,0,0, //Y Column
  0,0,1,0, //Z Column
  0,0,0,1 // Translation
}
M3DMatrix44f m = {
  1,0,0,0, //X Column
  0,1,0,0, //Y Column
  0,0,1,0, //Z Column
  0,0,0,1 // Translation
}  
void m3dLoadIdentity44f(M3DMatrix44f m);
理解OpenGL中的矩阵相乘
OpenGL角度
// 召唤场景
void RenderScene(void)
{
    ...
   
    //压栈
    modelViewMatrix.PushMatrix();
    M3DMatrix44f mCamera;
    cameraFrame.GetCameraMatrix(mCamera);
    
    //矩阵乘以矩阵堆栈的顶部矩阵,相乘的结果随后简存储在堆栈的顶部
    modelViewMatrix.MultMatrix(mCamera);
    
    M3DMatrix44f mObjectFrame;
    //只要使用 GetMatrix 函数就可以获取矩阵堆栈顶部的值,这个函数可以进行2次重载。用来使用GLShaderManager 的使用。或者是获取顶部矩阵的顶点副本数据
    objectFrame.GetMatrix(mObjectFrame);
    
    //矩阵乘以矩阵堆栈的顶部矩阵,相乘的结果随后简存储在堆栈的顶部
    modelViewMatrix.MultMatrix(mObjectFrame);
    
    /* GLShaderManager 中的Uniform 值——平面着色器
     参数1:平面着色器
     参数2:运行为几何图形变换指定一个 4 * 4变换矩阵
     --transformPipeline.GetModelViewProjectionMatrix() 获取的
     GetMatrix函数就可以获得矩阵堆栈顶部的值
     参数3:颜色值(黑色)
     */
    shaderManager.UseStockShader(GLT_SHADER_FLAT, transformPipeline.GetModelViewProjectionMatrix(), vBlack);
    ...
    
    //还原到以前的模型视图矩阵(单位矩阵)
    modelViewMatrix.PopMatrix();
   ...
}

从上面的代码中,我们看到,在RenderScene函数中,模型视图栈首先乘以mCamera(观察者矩阵),然后,我们再是乘以mObjectFrame(模型矩阵),最后,使用transformPipeline.GetModelViewProjectionMatrix()方法,我们用投影矩阵乘以模型视图矩阵,将最后结果返回。

也就是如下顺序:

projection * view * model

那么,我们为什么要按照这个顺序来添加矩阵呢?

这要从两个方面讲起,一个是看这几个方法的实现,还有一个就是坐标变换。

实现

首先是矩阵相乘的实现

inline void MultMatrix(const M3DMatrix44f mMatrix) {
    M3DMatrix44f mTemp;
    m3dCopyMatrix44(mTemp, pStack[stackPointer]);
    m3dMatrixMultiply44(pStack[stackPointer], mTemp, mMatrix);
}

从实现可以看出,调用这个方法就是将栈顶的矩阵取出,乘以参数的矩阵,再将相乘结果存放在原来的栈顶。

我们在两个地方依次调用了这个方法

//1.矩阵乘以模型视图栈的顶部矩阵,相乘的结果随后简存储在堆栈的顶部
modelViewMatrix.MultMatrix(mCamera);
//2.矩阵乘以模型视图栈的顶部矩阵,相乘的结果随后简存储在堆栈的顶部
modelViewMatrix.MultMatrix(mObjectFrame);

按照实现,这两部合并就是将mCamera * mObjectFrame的结果存放在模型视图矩阵的栈顶。

再看transformPipeline.GetModelViewProjectionMatrix()的实现:

const M3DMatrix44f& GetModelViewProjectionMatrix(void)
{
    m3dMatrixMultiply44(_mModelViewProjection, _mProjection->GetMatrix(), _mModelView->GetMatrix());
    return _mModelViewProjection;
}

这个的实现也很简单,就是返回投影矩阵 * 模型视图矩阵的结果,综合上面的分析,也就是:

projection * view * model

顺序是如此,下面我们从坐标变换来讲解为什么是这个顺序

坐标变换
坐标系变化.png
如图所示,为了将坐标从一个坐标系变换到另一个坐标系,我们需要用到几个变换矩阵,最重要的几个分别是模型(Model)、观察(View)、投影(Projection)三个矩阵。我们的顶点坐标起始于局部空间(Local Space),在这里它称为局部坐标(Local Coordinate),它在之后会变为世界坐标(World Coordinate),观察坐标(View Coordinate),裁剪坐标(Clip Coordinate),并最后以屏幕坐标(Screen Coordinate)的形式结束。它的流程如下:
  1. 局部坐标是对象相对于局部原点的坐标,也是物体起始的坐标。
  2. 下一步是将局部坐标变换为世界空间坐标,世界空间坐标是处于一个更大的空间范围的。这些坐标相对于世界的全局原点,它们会和其它物体一起相对于世界的原点进行摆放。
  3. 接下来我们将世界坐标变换为观察空间坐标,使得每个坐标都是从摄像机或者说观察者的角度进行观察的。
  4. 坐标到达观察空间之后,我们需要将其投影到裁剪坐标。裁剪坐标会被处理至-1.0到1.0的范围内,并判断哪些顶点将会出现在屏幕上。
  5. 最后,我们将裁剪坐标变换为屏幕坐标,我们将使用一个叫做视口变换(Viewport Transform)的过程。视口变换将位于-1.0到1.0范围的坐标变换到由glViewport函数所定义的坐标范围内。最后变换出来的坐标将会送到光栅器,将其转化为片段。
    我们为上面的步骤创建了三个矩阵:模型矩阵观察矩阵投影矩阵

注意矩阵运算的顺序是相反的(我们需要从右往左阅读矩阵的乘法)。最后的顶点应该被复制到顶点着色器的内建变量gl_positionOpenGL将会自动进行透视除法和裁剪。

根据这个过程,我们就可以回答一开始的问题,为什么OpenGL中需要先加入camera(也就是view),再加入model,最后是projection

上一篇下一篇

猜你喜欢

热点阅读