#
我一向是不太喜歡給一些東西強加上個名字。但為了隨波逐流,我還是這樣做了。
在我們的游戲開發中,通常會遇到兩個模塊之間的通信。 回調估計是最常用的方式了。 回調的設計思想很簡單,就是兩個對象相互注冊,然后在需要的時候調用對方的函數。
如下:
這樣,當A執行自己的某些動作的時候,就調用B的函數,這樣B就會進行自己的更新或是一些處理。
但是,由于兩個對象的直接回調,導致了許多不方便之處。特別是當A和B的功能需要擴展的時候。例如:現在A在執行過程中,需要調用B中其它的功能函數。這時候就不得不修改A和B的接口。然后大家都重新編譯,連接,執行。
于是,我們就會想會不會有一種更好的方法來解決這一問題。 大家可以想想,WINDOWS中的通信機制:通過解析消息類型來進行處理。是的,消息回調的好處就是方便擴展。 當然我們這里要講的不是像WINDOWS中那樣的消息通信機制,對于我們來說,那種做法過繁瑣。
假設現在是想讓A通知B一些事情。那么,我們可以把B的void DoB();函數作一點點修改:
同理,當B要通知A的時候,也這樣做就行了。
但是,這樣也很麻煩,關鍵在于,如果現在寫類A的人并不知道類B的人會怎么寫,或者說,類B不知道什么時候要寫。另外,如果我們強制類B要實現這樣的接口,會有點不現實。
此時,我們決定使用一個中間對象來連接他們。
這就是我們傳說中的監聽器了。 在OGRE或是一些廣泛采用面向對象思想的源程序中,隨處可見這樣的模式。
還是假設是A需要通知B一些事情。那么,可以在A中注冊這個對象,然后調用它的方法就可以了。
而我們在實現B的時候,除了要實現B自己的東西以外,還需要將ICallBack派生并實現 void Do(int Msg)函數;
這樣,雙方便很自然地通了信。而寫類A的人根本不需要理會類B的人會怎么寫,也不用去管類B會是什么樣的類名。只要告訴寫類B的人,你需要實現這個Callback接口,并且對應的MsgID是干什么用的就OK了。
也許初初的一看,這是吃力不討好的工作。畢竟一個寫A的人,會去想那么多事情。 而一個寫B的人,還要去實現一個Callback類。但是,從可擴展性,和降低耦合上來講,的確會起不少的作用。
而上面的void Do(int MsgID);函數,可以做得更強大一點。
寫成void Do(void* pData); 而這個pData怎么使用,就要看A和B通信的具體內容了。
我正盡力地試著把自己想要說的講清楚,謝謝!

此次畢業設計的內容很簡單,就是用OPENGL加載模型并顯示出來就OK了。本想做骨骼動畫,或是做個自己的軟渲染器來渲染模型。看來只有畢業之后再做了。
此次演示用的是MD2文件格式。我會在畢業答辯后(估計6月份吧)給出源碼。。
雖然示例并未做出什么高深的東西。但有興趣的朋友可以拿來來看看。
另外,誰 能告訴我怎么上傳附件哇,我還是沒找到!
終于找到了兩篇讓人易懂的文章,這兩篇結合著看,很容易看清計算過程,沒有想象中的那么復雜
這是一篇老外的:http://www.terathon.com/code/tangent.html
這是另一個大哥的:http://jingli83.blog.sohu.com/94746672.html
兩篇結合看,方顯其效!
有了這兩篇的理解后,再去看其它的關于切線空間的文章,就不會再摸不著東南西北了!
SSAO全稱“Screen-Space Ambient Occlusion” (屏幕空間環境光遮蔽)。其最先運用于 Crysis(孤島危機) 游戲中,通過GPU的 shader實現
SSAO通過采樣象素周圍的信息,并進行簡單的深度值對比來計算物體身上環境光照無法到達的范圍,從而可以近似地表現出物體身上在環境光照下產生的輪廓陰影。可以利用“逐象素場景深度計算”技術計算得出的深度值直接參與運算。
現在的效果確實錯誤還比較大,應該先進行簡單的空間劃分(或類似處理)然后計算。
不過個人認為這種方法只是近似地模擬,效果并不正確,但確實能增強場景的層次感,讓畫面更細膩,讓場景細節更加明顯。
不同于顯卡驅動中普通的AO選項,burnout的SSAO是全動態的,無需預處理,無loading時間,無需消耗內存,不使用CPU,全由GPU處理,對GPU有較大的消耗
SSAO默認是關閉的,可以在游戲視頻選項中打開
評測
在7950GT下跑,加了ssao后,下降了15%。而且,顯卡性能越低,下降的越厲害。效率消耗主要是在于要多渲染一遍場景到深度以及之后進行的ssao處理。這遍可以進行優化,如果物體的紋理不帶alpha,則可以把他們都合在一批或幾批渲染。至于深度圖的尺寸 ,我采用了與窗口一樣的尺寸,這樣精度高。也可以采用低分辨率,但效果會有鋸齒,還需要進行模糊處理才比較自然。當然,如果本來就用了延遲渲染技術,本來就有深度圖了,那就可以直接拿來用了。
與PRT對比
PRT用于靜態場景確實是個比較好的方案,畢竟可以預計算。但是對于動態的場景,還需要動態更新。另外,PRT的質量依賴于網格的細分程度,要是模型太簡,則效果也糟糕。
因此 ,PRT對于虛擬現實項目里的高樓大廈等場景(這些模型都是很精簡的)來說,就顯得不合適了
目前已發行的游戲中,運用SSAO的游戲有
Crysis(孤島危機)
Burnout(TM) Paradise The Ultimate Box(火爆狂飆5天堂)
帝國:全面戰爭
另外,星際爭霸2的開發也運用到了SSAO
什么是SSAO?
從HL2開始,眾多游戲公司開始對于如何表現“間接光照”進行研究,這些曇花一現的技術有:
運用于HL2的radiosity Normal Maps技術,效果比較垃圾
運用于Stalker的GI(?)技術,算法不好,開銷巨大。
初期Crytek準備運用在Crysis上的Photon Mapping(光子映射)技術,開銷同樣比較垃圾,被拋棄。
隨后Crytek又準備運用在Crysis上的Real-Time Ambient Map(實時環境光照貼圖,簡稱RAM),這個是與之前Stalker使用的技術比較類似的,也是最接近SSAO的一個技術。
不過Crytek不愧為“間接光照”研究上的先鋒,其技術員對于RAM進行了改進,新的算法成為了如今的SSAO
SSAO開與關的區別所在
SSAO(Screen-Space Ambient Occlusion)是一個純粹的渲染技術,或者說,是一個算法。雖然從上文知道是為了實現“間接光照”的效果,不過從技術上講,就是一個對于AO(Ambient Occlusion環境光吸收,也就是NV 185.20驅動加入的那個,一個渲染技術,我們可以在Maya等3D軟件中可以見到)的一個逼近函數,并且以此為據進行實時渲染。
SSAO比起185.20驅動中AO的優點:
與場景復雜性無關
無數據預處理,無loading時間,無系統內存分配
動態渲染
每個像素工作方式始終一致
無CPU占用,完全通過GPU執行
與流行顯卡的管線整合相當容易
缺點也是有的:
由于采樣全部在可見點上進行的,對于不可見點的遮擋影響會有錯誤的估算。
顆粒感比較重,需要與動態模糊緊密配合才能取得較好效果。
SSAO屏幕空間環境光遮蔽的運作方式
其實了解了AO環境光遮蔽的原理,SSAO(屏幕空間環境光遮蔽)已經可以融會貫通,SSAO通過采樣像素周圍的信息,并進行簡單的深度值對比來計算物體身上環境光照無法到達的范圍,從而可以近似地表現出物體身上在環境光照下產生的輪廓陰影。
具體的運作方式上,SSAO會利用GPU計算出指定像素的空間坐標,然后以此坐標為基點,在周圍選擇數個采樣點進行采樣,然后將采樣點的空間坐標投影回屏幕坐標,對深度緩沖進行采樣,最后得到采樣點的深度值,再進行后續計算,最終得到一個遮擋值。
SSAO實現了較好的全局光照效果
SSAO屏幕空間環境光遮蔽實現了較好的全局光照效果
因為是基于指定空間的全局計算模式,因此SSAO實現效果的優劣取決于算法,包括空間的指定范圍和采樣點的選取等等。需要指明的是,不同游戲(引擎)在SSAO的細節算法方面可能不盡相同,另外SSAO還會結合其它光照技術共同達成游戲畫面的渲染,所以SSAO在很多游戲中不會有專門的開關選項,其最終的表現結果可能是與其它技術共同作用的結果。
轉自:
http://www.abc188.com/info/html/wangzhanyunying/jianzhanjingyan/20080417/71683.html
文檔簡介: 提高3D圖像程式的性能是個很大的課題。圖像程式的優化大致能夠分成兩大任務,一是要有好的場景管理程式,能快速剔除不可見多邊形,并根據對象距相機遠近選擇合適的細節(LOD);二是要有好的渲染程式,能快速渲染送入渲染管線的可見多邊形。 我們知道,使用
文檔簡介:
提高3D圖像程式的性能是個很大的課題。圖像程式的優化大致能夠分成兩大任務,一是要有好的場景管理程式,能快速剔除不可見多邊形,并根據對象距相機遠近選擇合適的細節(LOD);二是要有好的渲染程式,能快速渲染送入渲染管線的可見多邊形。
我們知道,使用OpenGL或Direct3D渲染圖像時,首先要配置渲染狀態,渲染狀態用于控制渲染器的渲染行為。應用程式能夠通過改變渲染狀態來控制OpenGL或Direct3D的渲染行為。比如配置Vertex/Fragment Program、綁定紋理、打開深度測試、配置霧效等。
改變渲染狀態對于顯卡而言是比較耗時的操作,而假如能合理管理渲染狀態,避免多余的狀態轉換,將明顯提升圖像程式性能。這篇文章將討論渲染狀態的管理。
文檔目錄:
基本思想
實際問題
渲染腳本
文檔內容:
基本思想
我們考慮一個典型的游戲場景,包含人、動物、植物、建筑、交通工具、武器等。稍微分析一下就會發現,實際上場景里很多對象的渲染狀態是相同的,比如任何的人和動物的渲染狀態一般都相同,任何的植物渲染狀態也相同,同樣建筑、交通工具、武器也是如此。我們能夠把具備相同的渲染狀態的對象歸為一組,然后分組渲染,對每組對象只需要在渲染前配置一次渲染狀態,并且還能夠保存當前的渲染狀態,配置渲染狀態時只需改變和當前狀態不相同的狀態。這樣能夠大大減少多余的狀態轉換。下面的代碼段演示了這種方法:
// 渲染狀態組鏈表,由場景管理程式填充
RenderStateGroupList groupList;
// 當前渲染狀態
RenderState curState;
……
// 遍歷鏈表中的每個組
RenderStateGroup *group = groupList.GetFirst();
while ( group != NULL )
{
// 配置該組的渲染狀態
RenderState *state = group->GetRenderState();
state->ApplyRenderState( curState );
// 該渲染狀態組的對象鏈表
RenderableObjectList *objList = group->GetRenderableObjectList();
// 遍歷對象鏈表的每個對象
RenderableObject *obj = objList->GetFirst();
while ( obj != NULL )
{
// 渲染對象
obj->Render();
obj = objList->GetNext();
}
group = groupList.GetNext();
}
其中RenderState類的ApplyRenderState方法形如:
void RenderState::ApplyRenderState( RenderState &curState )
{
// 深度測試
if ( depthTest != curState.depthTest )
{
SetDepthTest( depthTest );
curState.depthTest = depthTest;
}
// Alpha測試
if ( alphaTest != curState.alphaTest )
{
SetAlphaTest( alphaTest );
curState.alphaTest = alphaTest;
}
// 其他渲染狀態
……
}
這些分組的渲染狀態一般被稱為Material或Shader。這里Material不同于OpenGL和Direct3D里面用于光照的材質,Shader也不同于OpenGL里面的Vertex/Fragment Program和Direct3D里面的Vertex/Pixel Shader。而是指封裝了的顯卡渲染圖像需要的狀態(也包括了OpenGL和Direct3D原來的Material和Shader)。
從字面上看,Material(材質)更側重于對象表面外觀屬性的描述,而Shader(這個詞實在不好用中文表示)則有用程式控制對象表面外觀的含義。由于顯卡可編程管線的引入,渲染狀態中包含了Vertex/Fragment Program,這些小程式能夠控制物體的渲染,所以我覺得將封裝的渲染狀態稱為Shader更合適。這篇文章也將稱之為Shader。
上面的代碼段只是簡單的演示了渲染狀態管理的基本思路,實際上渲染狀態的管理需要考慮很多問題。
渲染狀態管理的問題
消耗時間問題
改變渲染狀態時,不同的狀態消耗的時間并不相同,甚至在不同條件下改變渲染狀態消耗的時間也不相同。比如綁定紋理是個很耗時的操作,而當紋理已在顯卡的紋理緩存中時,速度就會很快。而且隨著硬件和軟件的發展,一些很耗時的渲染狀態的消耗時間可能會有減少。因此并沒有一個準確的消耗時間的數據。
雖然消耗時間無法量化,情況不同消耗的時間也不相同,但一般來說下面這些狀態轉換是比較消耗時間的:
Vertex/Fragment Program模式和固定管線模式的轉換(FF,Fixed Function Pipeline)
Vertex/Fragment Program本身程式的轉換
改變Vertex/Fragment Program常量
紋理轉換
頂點和索引緩存(Vertex & Index Buffers)轉換
有時需要根據消耗時間的多少來做折衷,下面將會碰到這種情況。
渲染狀態分類
實際場景中,往往會出現這樣的情況,一類對象其他渲染狀態都相同,只是紋理和頂點、索引數據不同。比如場景中的人,只是身材、長相、服裝等不同,也就是說只有紋理、頂點、索引數據不同,而其他如Vertex/Fragment Program、深度測試等渲染狀態都相同。相反,一般不會存在紋理和頂點、索引數據相同,而其他渲染狀態不同的情況。我們能夠把紋理、頂點、索引數據不歸入到Shader中,這樣場景中任何的人都能夠用一個Shader來渲染,然后在這個Shader下對紋理進行分組排序,相同紋理的人放在一起渲染。
多道渲染(Multipass Rendering)
有些比較復雜的圖像效果,在低檔顯卡上需要渲染多次,每次渲染一種效果,然后用GL_BLEND合成為最終效果。這種方法叫多道渲染Multipass Rendering,渲染一次就是個pass。比如做逐像素凹凸光照,需要計算環境光、漫射光凹凸效果、高光凹凸效果,在NV20顯卡上只需要1個pass,而在NV10顯卡上則需要3個pass。Shader應該支持多道渲染,即一個Shader應該分別包含每個pass的渲染狀態。
不同的pass往往渲染狀態和紋理都不同,而頂點、索引數據是相同的。這帶來一個問題:是以對象為單位渲染,一次渲染一個對象的任何pass,然后渲染下一個對象;還是以pass為單位渲染,第一次渲染任何對象的第一個pass,第二次渲染任何對象的第二個pass。下面的程式段演示了這兩種方式:
以對象為單位渲染
// 渲染狀態組鏈表,由場景管理程式填充
ShaderGroupList groupList;
……
// 遍歷鏈表中的每個組
ShaderGroup *group = groupList.GetFirst();
while ( group != NULL )
{
Shader *shader = group->GetShader();
RenderableObjectList *objList = group->GetRenderableObjectList();
// 遍歷相同Shader的每個對象
RenderableObject *obj = objList->GetFirst();
while ( obj != NULL )
{
// 獲取shader的pass數
int iNumPasses = shader->GetPassNum();
for ( int i = 0; i < iNumPasses; i )
{
// 配置shader第i個pass的渲染狀態
shader->ApplyPass( i );
// 渲染對象
obj->Render();
}
obj = objList->GetNext();
}
group = groupList->GetNext();
}
以pass為單位渲染
// 渲染狀態組鏈表,由場景管理程式填充
ShaderGroupList groupList;
……
for ( int i = 0; i < MAX_PASSES_NUM; i )
{
// 遍歷鏈表中的每個組
ShaderGroup *group = groupList.GetFirst();
while ( group != NULL )
{
Shader *shader = group->GetShader();
int iNumPasses = shader->GetPassNum();
// 假如shader的pass數小于循環次數,跳過此shader
if( i >= iNumPasses )
{
group = groupList->GetNext();
continue;
}
// 配置shader第i個pass的渲染狀態
shader->ApplyPass( i );
RenderableObjectList *objList =
group->GetRenderableObjectList();
// 遍歷相同Shader的每個對象
RenderableObject *obj = objList->GetFirst();
while ( obj != NULL )
{
obj->Render();
obj = objList->GetNext();
}
group = groupList->GetNext();
}
}
這兩種方式各有什么優缺點呢?
以對象為單位渲染,渲染一個對象的第一個pass后,馬上緊接著渲染這個對象的第二個pass,而每個pass的頂點和索引數據是相同的,因此第一個pass將頂點和索引數據送入顯卡后,顯卡Cache中已有了這個對象頂點和索引數據,后續pass不必重新將頂點和索引數據拷到顯卡,因此速度會很快。而問題是每個pass的渲染狀態都不同,這使得實際上每次渲染都要配置新的渲染狀態,會產生大量的多余渲染狀態轉換。
以pass為單位渲染則正好相反,以Shader分組,相同Shader的對象一起渲染,能夠只在這組開始時配置一次渲染狀態,相比以對象為單位,大大減少了渲染狀態轉換。可是每次渲染的對象不同,因此每次都要將對象的頂點和索引數據拷貝到顯卡,會消耗不少時間。
可見想減少渲染狀態轉換就要頻繁拷貝頂點索引數據,而想減少拷貝頂點索引數據又不得不增加渲染狀態轉換。魚和熊掌不可兼得 :-(
由于硬件條件和場景數據的情況比較復雜,具體哪種方法效率較高并沒有定式,兩種方法都有人使用,具體選用那種方法需要在實際環境測試后才能知道。
多光源問題
待續……
陰影問題
待續……
渲染腳本
現在很多圖像程式都會自己定義一種腳本文檔來描述Shader。
比如較早的OGRE(Object-oriented Graphics Rendering Engine,面向對象圖像渲染引擎)的Material腳本,Quake3的Shader腳本,連同剛問世不久的Direct3D的Effect File,nVIDIA的CgFX腳本(文檔格式和Direct3D Effect File兼容),ATI RenderMonkey使用的xml格式的腳本。OGRE Material和Quake3 Shader這兩種腳本比較有歷史了,不支持可編程渲染管線。而后面三種比較新的腳本都支持可編程渲染管線。
腳本 特性 范例
OGRE Material 封裝各種渲染狀態,不支持可編程渲染管線 >>>>
Quake3 Shader 封裝渲染狀態,支持一些特效,不支持可編程渲染管線 >>>>
Direct3D Effect File 封裝渲染狀態,支持multipass,支持可編程渲染管線 >>>>
nVIDIA CgFX腳本 封裝渲染狀態,支持multipass,支持可編程渲染管線 >>>>
ATI RenderMonkey腳本 封裝渲染狀態,支持multipass,支持可編程渲染管線 >>>>
使用腳本來控制渲染有很多好處:
能夠很方便的修改一個物體的外觀而不需重新編寫或編譯程式
能夠用外圍工具以所見即所得的方式來創建、修改腳本文檔(類似ATI RenderMonkey的工作方式),便于美工、關卡設計人員設定對象外觀,建立外圍工具和圖像引擎的聯系
能夠在渲染時將相同外觀屬性及渲染狀態的對象(也就是Shader相同的對象)歸為一組,然后分組渲染,對每組對象只需要在渲染前配置一次渲染狀態,大大減少了多余的狀態轉換