• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            Heath's Blog

            There is no end, it is just the beginning! - A Game Developer's Notes

            針對CUDA的GPU架構知識與性能對比

                 5年前將《GPU Gems 2》中的“Octree Textures on the GPU”用到了論文的實時紋理創作一節,那時候CUDA才剛出生,OpenCL應該還在規范階段,所以將GPU用于加速和通用計算的成熟方法還是compution by texturing。至于同樣的計算量在CPU和GPU上跑,性能到底提升多少,也沒有做過對比實驗。周末翻了下《CUDA by Example: An Introduction to General-Purpose GPU Programming》,基本掌握了用CUDA編寫GPU思想和語法,比起將數據做為紋理、Shader寫算法來,進步了不少:1)開發人員不需要熟悉渲染管線及圖形API;2)不用花時間去搭建DX或者OpenGL的框架;3)Host與Device代碼混編;4)不必采用Hacking思想處理包裝成紋理的數據;5)可指定參與計算的線程數。有了如此方便的編程環境,就隨手來做一下對比吧,這個例子來自《CUDA by Example》的4.2.2生成Julia集。

                 測試代碼需要做一些調整,才能更好地體現出GPU的平行計算優勢,這其中牽涉到支持CUDA的GPU架構知識,在這里做一下梳理。

                 在Nvidia推出Fermi架構之前,支持CUDA的Nvidia顯示芯片都是由多個Streaming Multiprocessor(簡稱SM)組成,每個SM包含了八個Stream Processor(簡稱SP),每四個SP組成一個組,也就是說SM實際上可以看成包含兩組4D的SIMD處理器。此外,每個SM還包含Register、share memory、texture cache以及constant cache。在執行 CUDA 程序的時候,每個SM對應一個 block,而每個SP就是對應一個 thread。雖然一個SM只有八個SP,但是由于SP進行各種運算都有延遲,更不用提內存存取的延遲了,因此 CUDA 在執行程序的時候,實際是以 warp 為單位。目前的支持CUDA顯卡,一個 warp 里面有32個 threads,分成兩組16 threads的half-warp。由于SP的運算至少有4個時鐘周期的延遲,因此對一個4D的SP來說,一次至少執行16個 threads(即 half-warp)才能有效覆蓋掉各種運算的延遲[1]。

            Image

            圖 1

                 在GeForce GTX 400系列上,Nvidia采用了全新的Fermi架構[2],之后的顯卡的Compute Capability也從1.3躍升至2.0。SP改名為CUDA Core,提升到了32個/SM[3]。圖2為Fermi核心演變,從GF104和由其發展起來的GF114、GF106、GF108的CUDA Core都上升到了48個/SM,支持2.1的Compute Capability,而GF100和GF110依舊是32個。最新基于Kepler架構的GeForce GTX 680支持3.0的Compute Capability,CUDA Core數量達到了192個/SM。

            Image(1)

            圖 2

                 由于測試平臺采用的是GTX 560 Ti,所以需要分析一下它的架構。GTX 560 Ti由8個SM組成,下圖中,左邊是從程序獲取的設備屬性,右邊為單個SM內部結構示例圖??梢钥吹?,GTX 560 Ti的每個SM配備了兩個Warp調度器,因此每個周期對兩個包含32個線程的Warp進行分發。另外,對于一個二維圖像,為kernel指定2D的grid和block可使代碼更加直觀。為此,block采用(16,16),總共分配256個(64*4)threads在一個SM上執行,如果需要產生1024*1024的Julia分形圖,則需要grid為(64,64)。

            Image(2) Image(3)

            圖 3

                 測試平臺為:

            Image(4)

                 測試代碼說明:

                 1)代碼分為CPU實現和CUDA實現;

                 2)均采用CPU計時方法;

                 3)只針對計算部分測試,不包括內存分配、傳輸以及文件寫入;

                 下面列出main函數代碼,左邊為CPU實現,右邊為CUDA實現,均編譯為release版本。

            Image(5)Image(6)

                 測試結論:CPU版本耗時244ms,CUDA版本耗時2.1087ms。這可是100倍的效率提升啊。不過CPU版本沒有經過多核優化,所以這樣這樣對比實在不公平,但這卻凸顯出CUDA C將并行思想融入語言規則的優勢。

            out

                 在驚訝GPU用作通用計算的執行效率時,別忘了它還是有諸多應用上的問題:

                 1)初始化耗時,需要在顯存分配空間,然后將數據從內存copy到顯存;
                 2)數據量受GPU顯存限制;
                 3)對本身就需要GPU參與運算的程序,如:3D游戲,通用計算會爭奪GPU資源,如果做平衡?
                 4)計算數據之間的不相關性限制了GPU通用計算的應用范圍;

                 5)CPU算法到適合GPU架構算法的移植;

                 最后,GPU硬件設計本身就已經決定了它的強項是密集數據處理(如:科學計算、醫療圖像處理),在邏輯處理方面還是CPU的天下,所以它們是互補的,只會有整合而非替代的趨勢。

            [1] http://www2.kimicat.com/gpu%E7%9A%84%E7%A1%AC%E9%AB%94%E6%9E%B6%E6%A7%8B

            [2] http://www.chip.cn/index.php?option=com_content&view=article&id=2857:geforce-gtx-400-gpu&catid=7:test-technology&Itemid=15

            [3] http://www.geeks3d.com/20100606/gpu-computing-nvidia-cuda-compute-capability-comparative-table

            [4] http://www.expreview.com/13590-2.html

            [5] http://en.wikipedia.org/wiki/CUDA

            posted on 2012-11-27 23:13 Heath 閱讀(3809) 評論(4)  編輯 收藏 引用 所屬分類: Graphics Programming

            Feedback

            # re: 針對CUDA的GPU架構知識與性能對比[未登錄] 2012-11-28 15:17 Hunter

            好文要頂!  回復  更多評論   

            # re: 針對CUDA的GPU架構知識與性能對比 2012-11-29 13:04 bukebushuo

            CUDA的最大缺點是需要特定硬件  回復  更多評論   

            # re: 針對CUDA的GPU架構知識與性能對比 2012-12-13 20:02 moondark

            博主,我想問一下, 對于cuda5.0,結合opencv能否在debug版本下進行編譯?
            我的在debug版本下編譯會顯示cuda的dll“并沒有debug版本”(Binary was not built with debug information.)所以不能執行, 但在release下進行編譯,就沒問題~
              回復  更多評論   

            # re: 針對CUDA的GPU架構知識與性能對比[未登錄] 2012-12-15 22:18 Heath

            @moondark
            cuda對外不會有debug版,有沒有試過用opencv去link release版的cuda庫?  回復  更多評論   

            国产精品免费久久久久久久久| 久久天天躁狠狠躁夜夜avapp| 久久99国产精品99久久| 四虎国产精品免费久久久| 精品久久久久久久久久中文字幕 | 一本色综合久久| 久久久国产打桩机| 国产高潮国产高潮久久久91| 婷婷久久综合| 99久久国产综合精品网成人影院| 久久伊人色| 久久综合久久综合九色| 久久综合鬼色88久久精品综合自在自线噜噜 | 91精品国产91久久久久久青草| 久久中文精品无码中文字幕| 日韩av无码久久精品免费| 国产激情久久久久影院小草 | 国产精品久久久香蕉| 91精品国产91久久久久久| 一本久久知道综合久久| 久久乐国产精品亚洲综合| 久久久久国产精品| 久久精品亚洲中文字幕无码麻豆 | 亚洲人成无码久久电影网站| 久久精品男人影院| 国产精品久久久久9999| 日韩精品久久久久久免费| 久久亚洲精品无码aⅴ大香| 色综合久久久久综合99| 久久99久久成人免费播放| 亚洲成色999久久网站| 久久久久久久综合日本亚洲| 久久99精品国产自在现线小黄鸭 | 久久婷婷人人澡人人| 一本大道加勒比久久综合| 99精品久久精品一区二区| 国内精品久久久久影院优 | 久久综合综合久久97色| 久久久久久久99精品免费观看| 久久99国产亚洲高清观看首页| 97精品国产91久久久久久|