• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            Windows下兩種iocp實現的差距

             

             

            之前幾天說過,因為經典iocp實現(以下簡稱經典實現)多個io線程綁定在一個iocp上,這樣內部管理了iocp隊列的處理,內部決定是不是需要線程切換,我上次修改的一個版本(以下簡稱實現2),用了多個io線程,每個iocp隊列僅綁定一個io線程,一組用戶共享一個io線程,這和經典的多線程epoll模型的做法是很相似的,這樣每個io線程是可以獨立控制了,但理論上這種做法沒有發揮iocp自動管理線程切換的優勢,昨晚沒事用這兩種實現分別做了個echoserver測試了一下,這兩套實現代碼僅40行左右不同,其他完全一樣,效果真的是差很多,測試僅用一個進程模擬了4000個客戶端,每秒1個包,先看實現2的,cpu14%2io線程,1accept線程,1個主線程,其他線程都沒干活閑置。

             

            Cpu

            Memory

            Threads

            handles

            14

            40088k

            8

            4236

             

            再看經典實現,cpu幾乎一直是0%2io線程,accept也是在io線程里面處理,其他跟實現2一樣,測試客戶端也一樣。

            Cpu

            Memory

            Threads

            handles

            0

            39244k

            7

            4336

             

            說實話,在測試之前我也沒想到有這么大的差距,經典實現就是1.2w個連接連上來還是這樣,就是內存占用多一點:

            Cpu

            Memory

            Threads

            handles

            0

            112068k

            7

            12280

             

            習慣上總有人喜歡拿epolliocp來對比,我到現在也沒看到真正公平的對比,就算是相對公平的也沒見到,因為在我看來,要對比硬件應該是一樣的,os都應該是最新的,最重要的是,server端程序應該都是發揮了各自優勢的,如果拿我這里的實現2去代表iocp的水平和epoll對比,勢必造成比epoll差很多的結果,然而這顯然是不正確的。

             

            epoll經典多線程模式實際實現和實現2很相似,理論上也有類似的線程切換問題,不知道效率怎樣。

             

             

            Posted on 2011-02-01 10:48 袁斌 閱讀(11954) 評論(3)  編輯 收藏 引用 所屬分類: c++網絡

            Feedback

            # re: Windows下兩種iocp實現的差距[未登錄]  回復  更多評論   

            2011-02-02 10:28 by by
            iocp的優勢就是系統調度的工作線程,他會盡量進行無切換的線程調度。我之前做過試驗,壓力小時,工作線程幾乎只用到了第一個。你用固定的io線程正是摒棄的iocp的這個優勢。
            epoll的優勢是高效的poll,但是他並不涉及線程,所有的線程處理都是靠線程系統本身來調度,並不會去針對epoll優化。並且epoll管理的只是狀態,並不會關心io操作本身,這也加重了編碼的負擔,以epoll為基礎的各種網絡框架參差不齊。
            以前我用的時候,是以單線程epoll,多線程處理狀態的方式建立了框架。io操作都分布到多個線程。所有的狀態都放進一個隊列中,等待io線程去取用。

            # re: Windows下兩種iocp實現的差距  回復  更多評論   

            2011-02-02 11:43 by 袁斌
            @by
            iocp編程理論上比epoll困難,因為:
            1、winsock系列函數眾多,常用的也有幾十個函數,而且參數眾多,而*nix只有區區幾個函數。
            2、epoll函數通知之后是非阻塞同步調用,而iocp是異步調用,更難理解,編程也更復雜。
            3、iocp模式的框架幾乎沒有單線程模式的,而epoll的框架很多都是單線程的,這和iocp的多線程框架相比難度降低了很多。當然這個不絕對,要視不同實現而定。
            iocp異步多線程模式的確是加大了資源管理的難度,我看過很多網絡框架的實現,幾乎都在這上面花了很多精力,但處理得好的極少,即使是無錯的都不多。所以也沒見過幾個寫得好的框架,同樣采用iocp的不同實現,效率相差可能超過百倍,這可能比epoll的不同框架差距更大。
            最近的frame2中IO線程分組調度是為了給每個io線程綁定特殊tls數據,并使得這些線程可直接接收指定消息更新tls數據,標準框架還是經典模式的,使用好多年了,高效穩定可靠。

            # re: Windows下兩種iocp實現的差距  回復  更多評論   

            2011-02-04 11:52 by 楊粼波
            by說的在理.


            iocp可以看看這篇文章,挺好的.
            http://wenku.baidu.com/view/a1f11287bceb19e8b8f6ba2d.html
            亚洲国产天堂久久综合网站| 成人综合久久精品色婷婷| 久久久久99精品成人片直播| 亚洲精品高清国产一线久久| 久久噜噜电影你懂的| 亚洲国产日韩欧美久久| 精品国产福利久久久| 亚洲精品国产自在久久| 久久亚洲综合色一区二区三区| 久久激情五月丁香伊人| 久久婷婷五月综合97色一本一本| 精品久久久久久无码中文字幕| 99久久夜色精品国产网站| 爱做久久久久久| 精品久久久久久久久午夜福利| 国产69精品久久久久9999| 无码国内精品久久人妻| 亚洲国产精品一区二区三区久久| 狠狠色婷婷综合天天久久丁香 | 久久久久久人妻无码| 久久中文字幕无码专区 | 尹人香蕉久久99天天拍| 久久综合丁香激情久久| 久久久久人妻精品一区| 色播久久人人爽人人爽人人片AV| 精品久久久久久国产三级 | 亚洲av日韩精品久久久久久a | 久久久WWW免费人成精品| 国产精品无码久久久久久| 亚洲午夜久久久久妓女影院| 亚洲国产小视频精品久久久三级 | 久久艹国产| 久久国产成人午夜aⅴ影院| 伊人热人久久中文字幕| 久久国产高清字幕中文| 国产999精品久久久久久| 91精品国产91久久久久久青草| 久久人爽人人爽人人片AV| 久久精品国产久精国产思思| 久久综合给合久久国产免费| 久久精品夜夜夜夜夜久久|