Unity Shader 学习笔记 (六) GPU 图形绘制管线
图形绘制管线描述GPU渲染流程,即“给定视点、三维物体、光源、照明模式,和纹理等元素,如何绘制一幅二维图像”。
图形绘制管线分为三个主要阶段
应用程序阶段
使用高级编程语言(C、C++、JAVA 等)进行开发,主要和CPU、内存打交道,诸如碰撞检测、场景图建立、空间八叉树更新、视锥裁剪等
经典算法都在此阶段执行。在该阶段的末端,几何体数据(顶点坐标、法向量、纹理坐标、纹理等)通过数据总线传送到图形硬件(时间瓶颈);数据总线是一
个可以共享的通道,用于在多个设备之间传送数据;端口是在两个设备之间传送数据的通道;带宽用来描述端口或者总线上的吞吐量,可以用每秒字节(b/s)
来度量,数据总线和端口(如加速图形端口,Accelerated Graphic Port,AGP)将不同的功能模块“粘接”在一起。由于端口和数据总线均具有数据传输能力,因此
通常也将端口认为是数据总线(实时计算机图形学387 页)。
几何阶段
主要负责顶点坐标变换、光照、裁剪、投影以及屏幕映射(实时计算机图形学234 页),该阶段基于GPU 进行运算,在该阶段的末端得到了经过
变换和投影之后的顶点坐标、颜色、以及纹理坐标(实时计算机图形学10 页)。
光栅阶段
基于几何阶段的输出数据,为像素(Pixel)正确配色,以便绘制完整图像,该阶段进行的都是单个像素的操作,每个像素的信息存储在颜色缓冲
器(color buffer 或者frame buffer)中。
值得注意的是:光照计算属于几何阶段,因为光照计算涉及视点、光源和物体的世界坐标,所以通常放在世界坐标系中进行计算;而雾化以及涉及物体透明
度的计算属于光栅化阶段,因为上述两种计算都需要深度值信息(Z 值),而深度值是在几何阶段中计算,并传递到光栅阶段的。
下面具体阐述从几何阶段到光栅化阶段的详细流程。
几何阶段
几何阶段的主要工作是“变换三维顶点坐标”和“光照计算”,显卡信息中通常会有一个标示为“T&L”硬件部分,所谓“T&L”即Transform & Lighting。那么为什
么要对三维顶点进行坐标空间变换?或者说,对三维顶点进行坐标空间变换有什么用?输入到计算机中的是一系列三维坐标点,但是我们最终需要看到的是
,从视点出发观察到的特定点(这句话可以这样理解,三维坐标点,要使之显示在二维的屏幕上)。一般情况下,GPU 帮我们自动完成了这个转换。
基于GPU 的顶点程序为开发人员提供了控制顶点坐标空间转换的方法。
一定要牢记,显示屏是二维的,GPU 所需要做的是将三维的数据,绘制到二维屏幕上,并到达“跃然纸面”的效果。顶点变换中的每个过程都是为了这个目
的而存在,为了让二维的画面看起具有三维立体感,为了让二维的画面看起来“跃然纸面”。
根据顶点坐标变换的先后顺序,主要有如下几个坐标空间,或者说坐标类型:
Object space,模型坐标空间;
World space,世界坐标系空间;
Eye space,观察坐标空间;
Clip and Project space,屏幕坐标空间。
上图 表述了GPU 的整个处理流程,其中茶色区域所展示的就是顶点坐标空间的变换流程。大家从中只需得到一个大概的流程顺序即可,下面将详细阐述空间变换的每个
独立阶段。
从object space 到world space
Object space 的两层核心含义:
其一,object space coordinate就是模型文件中的顶点值,这些值是在模型建模时得到的,例如,用3DMAX 建立一个球体模型并导出为.max 文件,这个文件中包含的数据就是 object space coordinate;
其二,object space coordinate 与其他物体没有任何参照关系,注意,
这个概念非常重要,它是将object space coordinate 和world space coordinate 区分
开来的关键。无论在现实世界,还是在计算机的虚拟空间中,物体都必须和一个
固定的坐标原点进行参照才能确定自己所在的位置,这是world space coordinate
的实际意义所在。
毫无疑问,我们将一个模型导入计算机后,就应该给它一个相对于坐标原点的位置,那么这个位置就是world space coordinate,从object space coordinate 到
world space coordinate 的变换过程由一个四阶矩阵控制,通常称之为worldmatrix。
光照计算通常是在world coordinate space(世界坐标空间)中进行的,这也符合人类的生活常识。当然,也可以在eye coordinate space 中得到相同的光照效
果,因为,在同一观察空间中物体之间的相对关系是保存不变的。需要高度注意的是:顶点法向量在模型文件中属于object space,在GPU 的
顶点程序中必须将法向量转换到world space 中才能使用,如同必须将顶点坐标从object space 转换到world space 中一样,但两者的转换矩阵是不同的,准确的
说,法向量从object space 到world space 的转换矩阵是world matrix 的转置矩阵的逆矩阵(许多人在顶点程序中会将两者的转换矩阵当作同一个,结果会出现难
以查找的错误)。
从world space 到eye space
每个人都是从各自的视点出发观察这个世界,无论是主观世界还是客观世界。同样,在计算机中每次只能从唯一的视角出发渲染物体。在游戏中,都会提
供视点漫游的功能,屏幕显示的内容随着视点的变化而变化。这是因为GPU 将物体顶点坐标从world space 转换到了eye space。
所谓eye space,即以camera(视点或相机)为原点,由视线方向、视角和远近平面,共同组成一个梯形体的三维空间,称之为viewing frustum(视锥),
如下图所示。近平面,是梯形体较小的矩形面,作为投影平面,远平面是梯形体较大的矩形,在这个梯形体中的所有顶点数据是可见的,而超出这个梯形体之外
的场景数据,会被视点去除(Frustum Culling,也称之为视锥裁剪)。
视椎体
从eye space 到project and clip space
一旦顶点坐标被转换到eye space 中,就需要判断哪些点是视点可见的。位于viewing frustum 梯形体以内的顶点,被认定为可见,而超出这个梯形体之外
的场景数据,会被视点去除(Frustum Culling,也称之为视锥裁剪)。这一步通常称之为“lip(裁剪)”,识别指定区域内或区域外的图形部分的过程称之为裁剪
算法。
很多人在理解该步骤时存在一个混乱,即“不清楚裁减与投影的关系和两者发生的先后顺序”,不少人觉得是“先裁减再投影”,不过事实并非如此。因为在
不规则的体(viewing frustum)中进行裁剪并非易事,所以经过图形学前辈们的精心分析,裁剪被安排到一个单位立方体中进行,该立方体的对角顶点分别是
(-1,-1,-1)和(1,1,1),通常称这个单位立方体为规范立方体(Canonical view volume,CVV)(实时计算机图形学第9 页)。CVV 的近平面(梯形体较小的矩形面)的
X、Y 坐标对应屏幕像素坐标(左下角是0、0),Z 坐标则是代表画面像素深度。多边形裁剪就是CVV 中完成的。所以,从视点坐标空间到屏幕坐标空间(screen coordinate space)事实上是由三步组成:
1. 用透视变换矩阵把顶点从视锥体中变换到裁剪空间的 CVV 中;
2. 在 CVV 进行图元裁剪;
3. 屏幕映射:将经过前述过程得到的坐标映射到屏幕坐标系上。
在这里,我们尤其要注意第一个步骤,即把顶点从viewing frustum 变换到CVV 中,这个过程才是我们常说或者听说的“投影”。主要的投影方法有两种:
正投影(也称平行投影)和透视投影。由于投影投影更加符合人类的视觉习惯,所以在附录中会详细讲解透视投影矩阵的推导过程,有兴趣的朋友可以查阅潘宏
(网名Twinsen)的“透视投影变换推导”一文。确定只有当图元完全或部分的存在于视锥内部时,才需要将其光栅化。当一个图元完全位于视体(此时视体以及变
换为CVV)内部时,它可以直接进入下一个阶段;完全在视体外部的图元,将被剔除;对于部分位于视体内的图元进行裁减处理。
Primitive Assembly && Triangle setup
Primitive Assembly,图元装配,即将顶点根据primitive(原始的连接关系),还原出网格结构。网格由顶点和索引组成,在之前的流水线中是对顶点的处理,
在这个阶段是根据索引将顶点链接在一起,组成线、面单元。之后就是对超出屏幕外的三角形进行裁剪,想象一下:一个三角形其中一个顶点在画面外,另外两
个顶点在画面内,这是我们在屏幕上看到的就是一个四边形。然后将该四边形切成两个小的三角形。
此外还有一个操作涉及到三角形的顶点顺序(其实也就是三角形的法向量朝向),根据右手定则来决定三角面片的法向量,如果该法向量朝向视点(法向量
与到视点的方向的点积为正),则该面是正面。一般是顶点按照逆时针排列。如果该面是反面,则进行背面去除操作(Back-face Culling)。在OpenGL 中有专门
的函数enable 和disable 背面去除操作。所有的裁剪剔除计算都是为了减少需要绘制的顶点个数。
光栅化阶段
Rasterization
光栅化:决定哪些像素被集合图元覆盖的过程(Rasterization is the process of determining the set of pixels covered by a geometric primitive)。经过上面诸多坐标
转换之后,现在我们得到了每个点的屏幕坐标值(Screen coordinate),也知道我们需要绘制的图元(点、线、面)。但此时还存在两个问题,
问题一:点的屏幕坐标值是浮点数,但像素都是由整数点来表示的,如果确定屏幕坐标值所对应的像素?
问题二:在屏幕上需要绘制的有点、线、面,如何根据两个已经确定位置的2 个像素点绘制一条线段,如果根据已经确定了位置的3 个像素点绘制一个三角形面片?
首先回答一下问题一,“绘制的位置只能接近两指定端点间的实际线段位置,例如,一条线段的位置是(10.48,20.51),转换为像素位置则是(10,21)”(计
算机图形学(第二版)52 页)。对于问题二涉及到具体的画线算法,以及区域图元填充算法。通常的画线算法有DDA 算法、Bresenham 画线算法;区域图元
填充算法有,扫描线多边形填充算法、边界填充算法等,具体请参阅《计算机图形学(第二版)》第3 章。这个过程结束之后,顶点(vertex)以及绘制图元(线、面)
已经对应到像素(pixel)。下面阐述的是“如何处理像素,即:给像素赋予颜色值”。
Pixel Operation
Pixel operation 又称为Raster Operation(在文献【2】中是使用RasterOperation),是在更新帧缓存之前,执行最后一系列针对每个片段的操作,其目
的是:计算出每个像素的颜色值。在这个阶段,被遮挡面通过一个被称为深度测试的过程而消除,这其中包含了很多种计算颜色的方法以及技术。Pixel operation
包含哪些事情呢?
1:消除遮挡面
2:Texture operation,纹理操作,也就是根据像素的纹理坐标,查询对应的纹理值;
3:Blending混色,根据目前已经画好的颜色,与正在计算的颜色的透明度(Alpha),混合为两种颜色,作为新的颜色输出。通常称之为alpha 混合技术。 当在屏幕
上绘制某个物体时,与每个像素都相关联的哟一个RGB 颜色值和一个Z 缓冲器深度值,另外一个称为是alpha 值,可以根据需要生成并存储,用来描述给定像
素处的物体透明度。如果alpha 值为1.0,则表示物体不透明;如果值为0,表示该物体是透明的,从绘制管线得到一个RGBA,使用over 操作符将该值与原像素
颜色值进行混合
此外还需要提醒的一点是:为了在场景中绘制透明物体,通常需要对物体进
行排序。首先,绘制不透明的物体;然后,在不透明物体的上方,对透明物体按
照由后到前的顺序进行混合处理。如果按照任意顺序进行混合,那么会产生严重
的失真。既然需要排序,那么就需要用到z buffer。
4:Filtering,将正在算的颜色经过某种Filtering(滤波或者滤镜)后输出。可以理解为:经过一种数学运算后变成新的颜色值。
该阶段之后,像素的颜色值被写入帧缓存中。下图 说明了像素操作的流程:
OpenGL 和Direct3D 中的Raster Operations
图形硬件
这一节中主要阐述图形硬件的相关知识,主要包括GPU 中数据的存放硬件,以及各类缓冲区的具体含义和用途,如:z buffer(深度缓冲区)、stencil buffer
(模板缓冲区)、frame buffer(帧缓冲区)和color buffer(颜色缓冲区)。
GPU 内存架构
寄存器和内存有什么区别?
从物理结构而言,寄存器是cpu 或gpu 内部的存储单元,即寄存器是嵌入在cpu 或者gpu 中的,而内存则可以独立存在;从功能上而言,寄存器是有限存储
容量的高速存储部件,用来暂存指令、数据和位址。Shader 编成是基于计算机图形硬件的,这其中就包括GPU 上的寄存器类型,glsl 和hlsl 的着色虚拟机版本
就是基于GPU 的寄存器和指令集而区分的。
GPU 存储架构
Z Buffer 与Z 值
Z buffer 应该是大家最为熟悉的缓冲区类型,又称为depth buffer,即深度缓冲区,其中存放的是视点到每个像素所对应的空间点的距离衡量,称之为Z 值
或者深度值。可见物体的Z 值范围位于【0,1】区间,默认情况下,最接近眼睛的顶点(近裁减面上)其Z 值为0.0,离眼睛最远的顶点(远裁减面上)其Z
值为1.0。使用z buffer 可以用来判断空间点的遮挡关系,著名的深度缓冲区算法(depth-buffer method,又称Z 缓冲区算法)就是对投影平面上每个像素所对
应的Z 值进行比较的。
Z 值并非真正的笛卡儿空间坐标系中的欧几里德距离(Euclidean distance),而是一种“顶点到视点距离”的相对度量。所谓相对度量,即这个值保留了与其他
同类型值的相对大小关系。在steve Baker 撰写的文章“earning to love yourZ-buffer”中将GPU 对Z 值的计算公式描述为:
z _ buffer _ value = (1<< N) * (a * z + b) / z
a = f / (f - n)
B = (f * n) / ( n - f )
其中f 表示视点到远裁减面的空间距离, n 表示视点到近裁减面的空间距离, z 表示视点到顶点的空间距离,N 表示Z 值精度。
大多数人所忽略的是,z buffer 中存放的z 值不一定是线性变化的。在正投影中同一图元相邻像素的Z 值是线性关系的,但在透视投影中却不是的。在透视投影中这种关系
是非线性的,而且非线性的程度随着空间点到视点的距离增加而越发明显。当3D 图形处理器将基础图元(点、线、面)渲染到屏幕上时,需要以逐行
扫描的方式进行光栅化。图元顶点位置信息是在应用程序中指定的(顶点模型坐标),然后通过一系列的过程变换到屏幕空间,但是图元内部点的屏幕坐标必须
由已知的顶点信息插值而来。例如,当画三角形的一条扫描线时,扫描线上的每个像素的信息,是对扫描线左右端点处已知信息值进行插值运算得到的,所以内
部点的Z 值也是插值计算得到的。同一图元相邻像素点是线性关系(像素点是均匀分布的,所以一定是线性关系),但对应到空间线段上则存在非线性的情况,
如图 7 所示。所示:线段AE 是某三角面片的两个顶点,投影到屏幕空间对应到像素1 和像素5;光栅化时,需要对像素2、3、4 进行属性插值,从视点引射线
到空间线段上的交点分别为B、C、D。从图中可以看出,点B、C、D 并不是均匀分布在空间线段上的,而且如果离视点越远,这种差异就越发突出。即,投影
面上相等的步长,在空间中对应的步长会随着离视点距离的增加而变长。所以如果对内部像素点的Z 值进行线性插值,得到的Z 值并不能反应真实的空间点的
深度关系。Z 值的不准确,会导致物体显示顺序的错乱,例如,在游戏中常会看到远处的一些面片相互交叠。
为了避免或减轻上述的情况,在设置视点相机远裁减面和近裁减面时,两者的比值应尽量小于1000。要想解决这个问题,最简单的方法是通过将近截面远
离眼睛来降低比值,不过这种方法的副作用时可能会将眼前的物体裁减掉。
Z 值的非线性关系
很多图形硬件使用 16 位的Z buffer,另外的一些使用24 位的Z buffer,还有一些很好的图形硬件使用32 位的。如果你拥有32 位的Z buffer,则Z 精度
(Z-precision)对你不是一个问题。但是如果你希望你的程序可以灵活的使用各种层次的图形硬件,那么你就需要多思考一下。
Z 精度之所以重要,是因为Z 值决定了物体之间的相互遮挡关系,如果没有足够的精度,则两个相距很近的物体将会出现随机遮挡的现象,这种现象通常称
为“limmering”或”-fighting”。
Stencil Buffer
A stencil buffer is an extra buffer, in addition to the color buffer and depth buffer found on modern computer graphics hardware. The buffer is per pixel, and works on
integer values, usually with a depth of one byte per pixel. The depth buffer and stencil buffer often share the same area in the RAM of the graphics hardware.
Stencil buffer,中文翻译为“模板缓冲区”,它是一个额外的buffer,通常附加到z buffer 中,例如:15 位的z buffer 加上1 位的stencil buffer(总共2 个字节);
或者24 位的z buffer 加上8 位的stencil buffer(总共4 个字节)。每个像素对应一个stencil buffer(其实就是对应一个Z buffer)。 Z buffer 和stencil buffer 通常在
显存中共享同一片区域。Stencil buffer 对大部分人而言应该比较陌生,这是一个用来“做记号”的buffer,例如:在一个像素的stencil buffer 中存放1,表示该像素
对应的空间点处于阴影体(shadow volume)中。
Frame Buffer
Frame buffer,称为帧缓冲器,用于存放显示输出的数据,这个buffer 中的数据一般是像素颜色值。Frame buffer 有时也被认为是color buffer(颜色缓冲器)
和z buffer 的组合(《实时计算机图形学(第二版)》12 页)。那么frame buffer 位于什么地方呢?frame buffer通常都在显卡上,但是有时显卡会集成到主板上,
所以这种情况下frame buffer被放在内存区域(general main memory)。