• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            投影與相機空間

            http://sighingnow.github.io/graphics/projection_and_camera.html

            投影與相機空間

             Published On August 14, 2015

            計算機屏幕是2維的,OpenGL渲染的3D場景必須以2D形式的圖像投影到屏幕上。

            透視投影

            透視投影能較好的使二維投影顯示立體感,因為人眼觀看物體符合透視原理。首先,將所有頂點從眼坐標(照相機坐標)轉換到裁剪坐標系下。然后,這些裁剪坐標通過透視除法,即除以裁剪坐標中w分量,轉換到歸一化設備坐標系(NDC)。在透視投影中,在眼坐標下截頭椎體(a truncated pyramid frustum)內的3D點被映射到NDC下一個立方體中;x坐標從[l,r]映射到[-1,1],y坐標從[b,t]映射到[-1,1],z坐標從[n,f]映射到[-1,1]。

            世界坐標和眼坐標系使用右手坐標系,而NDC使用左手坐標系。這就是說,眼坐標系下,在原點處的照相機朝著-Z軸看去,但是在NDC中它朝著+Z軸看去。如下圖所示:

            相機坐標系與設備坐標系

            由幾何關系,可以推導出對稱視錐(常見的都是對稱視錐,也符合人眼看物理的規律)的投影變換矩陣如下:

            透視投影變換矩陣

            其中,n為眼睛與近平面的距離(near),f為眼睛與遠平面的距離(far),r為設備的寬度,t為設備的高度。

            如何定義視界角度為alpha,定義設備的寬高比為 ar = width/height, 那么,投影矩陣也可以表述為:

            透視投影變換矩陣

            對應的代碼實現:

            PipeLine & PipeLine::PerspectiveProject(float ar, float alpha, float znear, float zfar) {     mat4x4f PrespectiveM = {         1.0f/(tanf(alpha/2.0)*ar), 0.0f                  , 0.0f                      , 0.0f,         0.0f                     , 1.0f/(tanf(alpha/2.0)), 0.0f                      , 0.0f,         0.0f                     , 0.0f                  , (-znear-zfar)/(znear-zfar), (2*zfar*znear)/(znear-zfar),         0.0f                     , 0.0f                  , 1.0f                      , 0.0f     };     mulmatf(PrespectiveM, M, M, 4, 4, 4);     return *this; } 

            投影變換對應的矩陣稱為投影(projection)矩陣

            正交投影

            構造正交投影(Orithographic Projection)的矩陣簡單很多。所有的是眼坐標下xe, ye 和ze,都被線性的映射到NDC中。我們需要做的就是講長方體視景體縮放為規范視見體,然后移動到原點。如下圖所示:

            正交投影

            如果視錐是對稱的話,投影矩陣為:

            正交投影變換矩陣

            相機空間

            我們可以將相機放在三維空間的任意位置,然后將世界坐標系中的點轉換到相機坐標系中,然后投影到設備屏幕上。理論上可以生成這樣的變化矩陣,實現把一個位于3D空間的對象投影到坐落在世界坐標系任意位置的相機正前方的2D平面上。

            三維相機的一個示意圖:

            相機示意圖

            與UVN相關的概念包括:

            • 相機位置,或者叫做視點(eyepoint): 觀察參考點 (View Reference Point)
            • 相機鏡頭方向,通過觀察平面的法向量指定: 觀察平面法向量VPN (View Plane Normal)
            • 相機頂部正朝向: VUV (View Up Vector)

            相機平移變換

            移動相機是非常簡單的。如果相機位于(x,y,z),那么平移變換就是(-x,-y,-y)。原因很明顯——相機在世界坐標系下用向量(x,y,z)做平移變換,所以想要相機回到原點,那么我們就需要使用此向量的相反向量進行平移。變換矩陣如下所示:

            相機移動變換矩陣

            相機旋轉變換

            下一步是將相機轉向世界坐標系中指定的位置。我們想要找到在相機定義的新坐標系下頂點的位置。“UVN相機”是眾多指定相機方向的辦法中的一個。相機被下列的矩陣所定義:

            • N: 由相機指向它的目標的向量。在一些3D的文獻中也被稱為’look at’。這個向量對應于Z軸。
            • V: 直立時,這個向量相對于相機是豎直向上的。這個向量對應于Y軸。
            • U: 這個向量從相機指向其右側。它對應于X軸。

            為了把一個位置從世界坐標系空間轉換到被UVN向量定義的相機坐標系空間,我們需要在位置和UVN向量之間進行一個點乘運算。我們可以把UVN系統看作是相機的基,從而可以方便的把一個向量在世界坐標和相機坐標進行轉換(將世界坐標變換到相機坐標)。得到的相機旋轉變換矩陣:

            相機轉動變換矩陣

            下來討論這個變換矩陣的推導過程。對于一個相機,我們容易知道它在三維坐標(世界坐標系)中的以下三個參數:

            • pos: 相機的位置坐標。
            • target: 相機正前方的目標點的坐標。
            • up: 相機的正上方(頭頂)的方向向量。(一般為(0.0f, 1.0f, 0.0f),與人平視屏幕時的頭頂方向一致)。

            根據這三個參數,注意到相機坐標系是右手坐標系,根據向量叉積的性質,容易求出:

            N = norm(target - pos) U = norm(up * N) V = norm(N * U) 

            當相機在屏幕中定位時,它首先會進行朝向的確定——旋轉,然后進行位置的確定——平移。因此,當進行相機變換的時候,將世界坐標系中的坐標變換到相機坐標系中的坐標時,應該進行一個相機定位的逆定位。先做逆平移變換,再做逆旋轉變換。

            關于相機變換矩陣的推導,參考了博文[推導相機變換矩陣][http://blog.csdn.net/popy007/article/details/5120158]。

            相機變換對應的矩陣稱為視圖(view)矩陣,也稱為觀察矩陣

            數學運算庫 glm 中包含了一個lookUp函數,可以根據postargetup三個向量來直接計算出相機變換矩陣:

            glm::mat4 View = glm::lookAt(     glm::vec3(4,3,3), // Camera is at (4,3,3), in World Space     glm::vec3(0,0,0), // and looks at the origin     glm::vec3(0,1,0)  // Head is up (set to 0,-1,0 to look upside-down) ); 

            攝像機控制

            通過相機變換矩陣,我們可以利用矩陣乘法將世界坐標系中的坐標變換到相機坐標系中。通過修改pos, target 和 up 參數,我們可以在程序中動態完成相機的控制。但是這樣仍然不能很好的用于人機交互,通常使用的第一人稱相機,通過鍵盤WASD等鍵和鼠標來控制虛擬相機更加方便,因此需要改進我們的相機控制。要想構造適合人機交互的相機類,必須明確我們需要實現的目標。第一人稱相機的目標包括:鍵盤來移動相機,是相機前后左右移動,通過鼠標來控制相機繞xy軸轉動角度,通過鼠標滾輪來實現縮放。

            第一人稱相機旋轉示意圖:

            第一人稱相機旋轉示意圖圖

            可以將相機在空間的旋轉、移動等變換都分解到 U、V、N 方向上進行,三個為了更好地表達對攝像機的控制,實現一個Camera類,代碼實現:

            // implements for class Camera Camera::Camera(vec3f pos, vec3f target, vec3f up): POS(pos), TARGET(target), UP(up) {     // initial camera.     POS = pos; TARGET = target; UP = up;     this->UpdateUVN(); }  Camera & Camera::Translate(float du, float dv, float dn) {     vec3f delta(du*U.x + dv*V.x + dn*N.x, du*U.y + dv*V.y + dn*N.y, du*U.z + dv*V.z + dn*N.z);     POS = POS + delta;     TARGET = TARGET + delta;     return this->UpdateUVN(); }  Camera & Camera::Rotate(float roll, float pitch, float yaw) {     vec3f uu, vv, nn;      uu = U, vv = V;     U = uu * cosf(roll) - vv * sinf(roll);     V = uu * sinf(roll) + vv * cosf(roll);      vv = V, nn = N;     V = vv * cosf(pitch) - nn * sinf(pitch);     N = vv * sinf(pitch) + nn * cosf(pitch);      // nn = N, uu = U;     N = nn * cosf(yaw) - uu * sinf(yaw);     U = nn * sinf(yaw) + uu * cosf(yaw);      // update target and up.     TARGET = POS + N; UP = V;      return *this; }  Camera & Camera::UpdateUVN() {     // calculate the axis value of camera coordinate system.     N = (TARGET - POS).Normalize();     U = (UP * N).Normalize();     V = (U * N).Normalize();     return *this; }  mat4x4f & Camera::TransformM() {     memset(M, 0x00, sizeof(M));     M[0][0] = M[1][1] = M[2][2] = M[3][3] = 1.0f;     // calculate translation transform.     mat4x4f TranslateM = {         1.0f, 0.0f, 0.0f, -POS.x,         0.0f, 1.0f, 0.0f, -POS.y,         0.0f, 0.0f, 1.0f, -POS.z,         0.0f, 0.0f, 0.0f, 1.0f     };     mulmatf(TranslateM, M, M, 4, 4, 4);     // calculate rotation transform.     mat4x4f RotateM = {         U.x , U.y , U.z , 0.0f,         V.x , V.y , V.z , 0.0f,         N.x , N.y , N.z , 0.0f,         0.0f, 0.0f, 0.0f, 1.0f     };     mulmatf(RotateM, M, M, 4, 4, 4);      return this->M; } 

            方向鍵控制六個方向上的移動:

            static void SpecialKeys(int key, int, int) {     switch (key) {     case GLUT_KEY_LEFT: camera.Translate(-STEP_VAL); break;     case GLUT_KEY_RIGHT: camera.Translate(STEP_VAL); break;     case GLUT_KEY_UP: camera.Translate(0.0f, STEP_VAL); break;     case GLUT_KEY_DOWN: camera.Translate(0.0f, -STEP_VAL); break;     case GLUT_KEY_PAGE_UP: camera.Translate(0.0f, 0.0f, STEP_VAL); break;     case GLUT_KEY_PAGE_DOWN: camera.Translate(0.0f, 0.0f, -STEP_VAL); break;     default: printf("Unknown Special Key: %d\n", key); break;     } } 

            鼠標拖拽:

            glutMotionFunc(MotionFunc); glutMouseFunc(MouseFunc);  static void MotionFunc(int x, int y) {     if(mstate) {         camera.Rotate(0.0f, ToRadian((_y-y)*Camera::MOUSE_SENSITIVITY), ToRadian((_x-x)*Camera::MOUSE_SENSITIVITY));         _x = x; _y = y; // update     } }  static void MouseFunc(int button, int state, int x, int y) {     if(button == GLUT_LEFT_BUTTON) {         if(state == GLUT_DOWN) {             _x = x, _y = y; mstate = true;         }         else {             mstate = false;         }     } } 

            MVP變換矩陣

            M、V、P 分別指模型(model),視圖(view)和投影(projection)。MVP矩陣是模型、視圖、以及投影變換三者結合起來的變換矩陣。變換順序為:模型 -> 視圖 -> 投影。變換方程表達:

            MVP = model * view * projection  MVPTransform = model * view * projection * origin 

            在實際編程中,可以使用glm庫來方便地實現這些操作:

                // Projection matrix : 45° Field of View, 4:3 ratio, display range : 0.1 unit <-> 100 units     glm::mat4 Projection = glm::perspective(45.0f, 4.0f / 3.0f, 0.1f, 100.0f);     // Camera matrix     glm::mat4 View       = glm::lookAt(         glm::vec3(4,3,3), // Camera is at (4,3,3), in World Space         glm::vec3(0,0,0), // and looks at the origin         glm::vec3(0,1,0)  // Head is up (set to 0,-1,0 to look upside-down)     );     // Model matrix : an identity matrix (model will be at the origin)     glm::mat4 Model      = glm::mat4(1.0f);  // Changes for each model !     // Our ModelViewProjection : multiplication of our 3 matrices     glm::mat4 MVP        = Projection * View * Model; // Remember, matrix multiplication is the other way around 

            深度緩沖(Z-Buffer)

            在OpenGL繪圖過程中,我們會遇到這樣的問題:一些理應被遮擋的面,因為繪制次序靠后,竟然變成可見的了。我們將用深度緩沖(Z-Buffer)算法解決它。

            該問題的解決方案是:在緩沖中存儲每個片段的深度(即“Z”值);并且每次繪制片段之前要比較當前與先前片段的深度值,看誰離攝像機更近。

            我們可以自己實現深度緩沖,但讓硬件自動完成更簡單:

            // Enable depth test glEnable(GL_DEPTH_TEST); // Accept fragment if it closer to the camera than the former one glDepthFunc(GL_LESS); 

            問題解決了。

            參考

            1. 深入投影變換
            2. OpenGL學習腳印: 投影矩陣的推導
            3. 推導相機變換矩陣

            posted on 2018-01-08 11:31 zmj 閱讀(1564) 評論(0)  編輯 收藏 引用

            久久天天躁狠狠躁夜夜躁2014| 精产国品久久一二三产区区别| 日本福利片国产午夜久久| 国产精品免费久久| 2021国内精品久久久久久影院| 国产成人久久精品一区二区三区 | 久久久久久a亚洲欧洲aⅴ| 国产精品九九久久免费视频| 久久亚洲国产成人影院网站| 日韩AV无码久久一区二区| 国产午夜电影久久| 色狠狠久久AV五月综合| 日日狠狠久久偷偷色综合0| 久久久一本精品99久久精品66| 久久亚洲2019中文字幕| 久久精品毛片免费观看| 性做久久久久久久久老女人| 99久久国产综合精品五月天喷水 | 欧美激情精品久久久久久久九九九| 99久久无色码中文字幕人妻| 女同久久| 国产精品久久久天天影视香蕉| 精品综合久久久久久888蜜芽| 伊人久久成人成综合网222| 99久久精品免费观看国产| jizzjizz国产精品久久| 欧美一区二区三区久久综合| 伊人久久大香线蕉精品不卡| 久久久久久av无码免费看大片| 久久99热狠狠色精品一区| 国产精品久久久久国产A级| 亚洲中文字幕久久精品无码喷水 | av午夜福利一片免费看久久| 亚洲精品无码久久久久久| 思思久久精品在热线热| 亚洲国产成人精品女人久久久| 久久成人精品| 无码国内精品久久人妻麻豆按摩 | 久久国产精品无码一区二区三区 | 99久久精品国产高清一区二区 | 青青热久久国产久精品|