高效率的3D图形数学库(2)---SSE与矩阵相乘
<strong><br/><br/></strong>这次将介绍SSE扩展指令集,以及矩阵乘法的优化,不喜汇编者请发送WM_CLOSE消息!!<br/>闲话就不说了,SSE指令的历史到处都是,主要说说我对指令集的原理、作用和用法的理解。 <p></p><p>SSE指令集的最大有点就是能够 4个float并行运算,与其说这恰好符合图形算法,到不如说就是为图形编程设计的。比如说,两个向量相加,x1+x2, y1+y2, z1+z2, w1+w2。用了4条加法指令,不如来一条省事。这就是SSE能为我们做的。这里要介绍8个寄存器:xmm0, xmm1, xmm2...xmm6, xmm7,这些寄存器都是128位的,每个寄存器都可以存放4个float,所以,x1, y1, z1, w1这4个float型可以放在xmm0中,而x2, y2, z2, w2可以放在xmm1中,于是 xmm0 += xmm1,结果就保存在xmm0寄存器了!下面是代码:</p><p>struct Vector<br/>{<br/> float x, y, z, w;</p><p> void Add(const Vector* pIn)<br/> {<br/> _asm<br/> {<br/> mov eax, pIn; // 这里其实应该是 mov eax, dword ptr;<br/> mov ecx, this;</p><p> movups xmm0, ; // 把this的xyzw放入xmm0<br/> movups xmm1, ; // 把pIn的xyzw放入xmm1<br/> addps xmm0, xmm1; // xmm0 += xmm1<br/> movups , xmm0; // 把xmm0的值给this<br/> mov , 3F800000h // 别忘了给w = 1.0f<br/> }<br/> }<br/>}</p><p>其实也就这么简单,movups是把内存中的向量放入寄存器,或者把寄存器中的向量放回内存,总之是一次移动128个位的一条指令,这个指令比普通的MOV指令要慢70%左右,比浮点乘法要慢的多了,大量的时间花在了movups上。所以说,简单的算法不值得去用SSE指令。</p><p>这个向量加法指令很可能会比下面的算法更慢:<br/>void Add(const Vector* pIn)<br/>{<br/> x += pIn->x;<br/> y += pIn->y;<br/> z += pIn->z;<br/> w += pIn->w;<br/>}</p><p><br/>那么,如果我要让一个向量的xyzw这4个float同时去加上同一个float值怎么办呢?比方说,我要让在xmm0中的xyzw同时加上float型变量h,就会像下面这样去做:</p><p>float h = ...;<br/>_asm<br/>{<br/>movss xmm1, h<br/>shufps xmm1, xmm1, 0<br/>addps xmm0, xmm1<br/>}</p><p>好了,出现2个新的指令: movss和shufps。</p><p>movss是将一个32位的值移动到一个128位寄存器的低32位中。也就是说,这时xmm1中的4个32位区块中只有第0个区块是存放了h的值。</p><p>这时,我想让其他3个区块也存放同样的值,以便对xmm0进行并行加法处理,于是用到了下面的指令————</p><p>shufps是用来将128位寄存器中4个区块的数值进行相互调换、拷贝或覆盖,就像洗牌一样,所以叫做洗牌指令。我们现看该指令的第3个操作数是 0,该操作数是8位的,0 = 00 00 00 00,你看,我把8位数分成了4份,每一份都表示了一个寄存器区间。<br/>00就是第0个区块<br/>01就是第1个区块<br/>10就是第2个区块<br/>11就是第3个区块</p><p>shufps dest, src, 00 00 00 00<br/>我们将根据第3个操作数,从src中选取区间,并把该区块中的数给拖到dest相应的区块内。这里的操作数4个都是0,所以,dest的4个区块中存放的都是src中第0个区间的值。而dest和src是同一个寄存器的时候,就会是自我洗牌。于是xmm1中的4个区块存放的都是xmm1第0个区块的值。下面的示例会帮助你更好的理解这个问题:</p><p>dest = w1, z1, y1, x1<br/>src = w2, z2, y2, x2</p><p>经过该指令: shufps dest, src, 01 11 00 10<br/>得到该结果: dest = y2, w2, x2, z2<br/>看下面的会更清晰:</p><p>dest第3区块 <<------ src中01区块(1)<br/>dest第2区块 <<------ src中11区块(3)<br/>dest第1区块 <<------ src中00区块(0)<br/>dest第0区块 <<------ src中10区块(2)</p><p>注意:这里的第3操作数所代表的dest寄存器区块顺序是3210,而不是0123,x通常存放在0区块,内存中地址越小的就放在编号越小的区块~~总之别给搞反了就好,这里的确很容易混淆。</p><p>而这里其实有一个万恶的限制!!!:如果dest和src是不同的寄存器,那么3、4区块的值会取dest自己区块中的,而不是src区块中的值。所以,上面执行过的dest实际是这样的:<br/>dest = y1, w1, x2, z2</p><p>dest第3区块 <<------ dest中01区块(1)<br/>dest第2区块 <<------ dest中11区块(3)<br/>dest第1区块 <<------ src中00区块(0)<br/>dest第0区块 <<------ src中10区块(2)</p><p>如果还没明白的话..... 可以发论坛中的短消息给我。</p><p><br/>SSE基本指令的计算有“加减乘除”四则运算,分别是: addps, subps, mulps, divps。很好记的,都是x86基本指令后面加个ps后缀。如果是ss后缀,则代表只有第0个区间做运算,速度会比ps的快20%左右,在AMD的CPU上会比浮点指令要慢,所以,传说中的性能提升400%就是纯属口胡,因为那只是理论值。但是300%还是可以做到的,特别是复杂的算法就更容易做到,比如说矩阵相乘。</p><p>现在发一段矩阵相乘的代码,出于是重点介绍SSE指令用法的缘故,主要注意了代码的可读性,所以没有对指令进行重排,所以会比我的最优化版慢25%左右的速度,但即便如此,已然是一般算法的3倍速了,看官们可以考回去实验一下,重排后的代码会在以后放出。</p><p>void MultMatrix(const Matrix* pOut, const Matrix* pIn1, const Matrix* pIn2)<br/>{<br/>if (!g_bUseSSE2)<br/>{<br/>// = xmm0 * xmm4 + xmm1 * xmm5 + xmm2 * xmm6 + xmm3 * xmm7<br/>pOut->_11 = pIn1->_11*pIn2._11 + pIn1->_12*pIn2._21 + pIn1->_13*pIn2._31 + pIn1->_14*pIn2._41;<br/>pOut->_12 = pIn1->_11*pIn2._12 + pIn1->_12*pIn2._22 + pIn1->_13*pIn2._32 + pIn1->_14*pIn2._42;<br/>pOut->_13 = pIn1->_11*pIn2._13 + pIn1->_12*pIn2._23 + pIn1->_13*pIn2._33 + pIn1->_14*pIn2._43;<br/>pOut->_14 = pIn1->_11*pIn2._14 + pIn1->_12*pIn2._24 + pIn1->_13*pIn2._34 + pIn1->_14*pIn2._44;</p><p>pOut->_21 = pIn1->_21*pIn2._11 + pIn1->_22*pIn2._21 + pIn1->_23*pIn2._31 + pIn1->_24*pIn2._41;<br/>pOut->_22 = pIn1->_21*pIn2._12 + pIn1->_22*pIn2._22 + pIn1->_23*pIn2._32 + pIn1->_24*pIn2._42;<br/>pOut->_23 = pIn1->_21*pIn2._13 + pIn1->_22*pIn2._23 + pIn1->_23*pIn2._33 + pIn1->_24*pIn2._43;<br/>pOut->_24 = pIn1->_21*pIn2._14 + pIn1->_22*pIn2._24 + pIn1->_23*pIn2._34 + pIn1->_24*pIn2._44;</p><p>pOut->_31 = pIn1->_31*pIn2._11 + pIn1->_32*pIn2._21 + pIn1->_33*pIn2._31 + pIn1->_34*pIn2._41;<br/>pOut->_32 = pIn1->_31*pIn2._12 + pIn1->_32*pIn2._22 + pIn1->_33*pIn2._32 + pIn1->_34*pIn2._42;<br/>pOut->_33 = pIn1->_31*pIn2._13 + pIn1->_32*pIn2._23 + pIn1->_33*pIn2._33 + pIn1->_34*pIn2._43;<br/>pOut->_34 = pIn1->_31*pIn2._14 + pIn1->_32*pIn2._24 + pIn1->_33*pIn2._34 + pIn1->_34*pIn2._44;</p><p>pOut->_41 = pIn1->_41*pIn2._11 + pIn1->_42*pIn2._21 + pIn1->_43*pIn2._31 + pIn1->_44*pIn2._41;<br/>pOut->_42 = pIn1->_41*pIn2._12 + pIn1->_42*pIn2._22 + pIn1->_43*pIn2._32 + pIn1->_44*pIn2._42;<br/>pOut->_43 = pIn1->_41*pIn2._13 + pIn1->_42*pIn2._23 + pIn1->_43*pIn2._33 + pIn1->_44*pIn2._43;<br/>pOut->_44 = pIn1->_41*pIn2._14 + pIn1->_42*pIn2._24 + pIn1->_43*pIn2._34 + pIn1->_44*pIn2._44;<br/>} <br/>else<br/>{<br/>_asm<br/>{<br/>mov edx, pIn2; // 这时保存的是pIn2<br/>movups xmm4, ; //pIn2的第1行<br/>movups xmm5, ; //pIn2的第2行<br/>movups xmm6, ; //pIn2的第3行<br/>movups xmm7, ; //pIn2的第4行</p><p>mov eax, pIn1; // 这时保存的是pIn1<br/>mov edx, pOut;</p><p>mov ecx, 4; // 循环4次</p><p>LOOPIT: // 开始循环<br/>movss xmm0, ; xmm0 = pIn1->x<br/>shufps xmm0, xmm0, 0; 洗牌xmm0 = pIn1->x, pIn1->x, pIn1->x, pIn1->x<br/>mulps xmm0, xmm4;</p><p>movss xmm1, ; xmm1 = pIn1->y<br/>shufps xmm1, xmm1, 0; 洗牌xmm1 = pIn1->y, pIn1->y, pIn1->y, pIn1->y<br/>mulps xmm1, xmm5;</p><p>movss xmm2, ; xmm2 = pIn1->z<br/>shufps xmm2, xmm2, 0; 洗牌xmm2 = pIn1->z, pIn1->z, pIn1->z, pIn1->z<br/>mulps xmm2, xmm6;</p><p>movss xmm3, ; xmm3 = pIn1->w<br/>shufps xmm3, xmm3, 0; 洗牌xmm3 = pIn1->w, pIn1->w, pIn1->w, pIn1->w<br/>mulps xmm3, xmm7;</p><p>addps xmm0, xmm1;<br/>addps xmm2, xmm3;<br/>addps xmm0, xmm2; 最终结果行保存在xmm0</p><p>movups , xmm0; 将结果保存到pOut中<br/>add edx, 16;<br/>add eax, 16; 作为变址用</p><p>loop LOOPIT;<br/>}<br/>}<br/>}</p><p>这里的汇编对照上面的一般算法就很容易理解。下回我会说说矩阵类的关键算法。</p>
页:
[1]