• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            陳碩的Blog

            muduo 與 boost asio 吞吐量對比

            muduo (http://code.google.com/p/muduo) 是一個基于 Reactor 模式的 C++ 網(wǎng)絡(luò)庫,我在編寫它的時候并沒有以高并發(fā)高吞吐為主要目標(biāo),但出乎我的意料,ping pong 測試表明,muduo 吞吐量比 boost.asio 高 15% 以上。

            測試對象

            測試環(huán)境

            硬件:DELL 490 工作站,雙路 Intel quad core Xeon E5320 CPU,16G 內(nèi)存

            操作系統(tǒng):Ubuntu Linux Server 10.04.1 LTS x86_64

            編譯器:g++ 4.4.3

            測試方法

            依據(jù) asio 性能測試 http://think-async.com/Asio/LinuxPerformanceImprovements 的辦法,用 ping pong 協(xié)議來測試吞吐量。

            簡單地說,ping pong 協(xié)議是客戶端和服務(wù)器都實現(xiàn) echo 協(xié)議。當(dāng) TCP 連接建立時,客戶端向服務(wù)器發(fā)送一些數(shù)據(jù),服務(wù)器會 echo 回這些數(shù)據(jù),然后客戶端再 echo 回服務(wù)器。這些數(shù)據(jù)就會像乒乓球一樣在客戶端和服務(wù)器之間來回傳送,直到有一方斷開連接為止。這是用來測試吞吐量的常用辦法。

            asio 的測試代碼取自 http://asio.cvs.sourceforge.net/viewvc/asio/asio/src/tests/performance/ ,未作更改。

            muduo 的測試代碼在 0.1.1 軟件包內(nèi),路徑為 examples/pingpong/,代碼如 http://gist.github.com/564985 所示。

            muduo 和 asio 的優(yōu)化編譯參數(shù)均為 -O2 -finline-limit=1000

            $ BUILD_TYPE=release ./build.sh  # 編譯 muduo 的優(yōu)化版本

            我主要做了兩項測試:

            • 單線程測試,測試并發(fā)連接數(shù)為 1/10/100/1000/10000 時的吞吐量。
            • 多線程測試,并發(fā)連接數(shù)為 100 或 1000,服務(wù)器和客戶端的線程數(shù)同時設(shè)為 1/2/3/4。(由于我家里只有一臺 8 核機器,而且服務(wù)器和客戶端運行在同一臺機器上,線程數(shù)大于 4 沒有意義。)

            所有測試中,ping pong 消息的大小均為 16k bytes。測試用的 shell 腳本可從 http://gist.github.com/564985 下載。

            測試結(jié)果

            單線程測試的結(jié)果,數(shù)字越大越好:

            single_thread

            多線程測試的結(jié)果,數(shù)字越大越好:

            multiple_thread_100conn

            image007

            測試結(jié)果表明 muduo 吞吐量平均比 asio 高 15% 以上。

            討論

            muduo 出乎意料地比 asio 性能優(yōu)越,我想主要得益于其簡單的設(shè)計和簡潔的代碼。

            asio 在多線程測試中表現(xiàn)不佳,我猜測其主要原因是測試代碼只使用了一個 io_service,如果改用“io_service per CPU”的話,性能應(yīng)該有所提高。我對 asio 的了解程度僅限于能讀懂其代碼,希望能有 asio 高手編寫“io_service per CPU”的 ping pong 測試,以便與 muduo 做一個公平的比較。

            ping pong 測試很容易實現(xiàn),歡迎其他網(wǎng)絡(luò)庫(ACE、POCO、libevent 等)也能加入到對比中來,期待這些庫的高手出馬。

            posted on 2010-09-04 16:30 陳碩 閱讀(4818) 評論(5)  編輯 收藏 引用 所屬分類: muduo

            評論

            # re: muduo 與 boost asio 吞吐量對比 2010-09-04 20:23 Cox

            高人,期待后續(xù)大作  回復(fù)  更多評論   

            # re: muduo 與 boost asio 吞吐量對比 2010-09-05 20:08 imjj

            樓主的庫cmake 沒裝上,還沒測試
            ACE 只實現(xiàn)了一個server,client 用的 asio 的
            ./client 127.0.0.1 $p 1 16384 $n 10
            64位 win7 下 virtualbox 中的 ubuntu 10.04 32bit 桌面版,2 CPU 打開了 VT
            ACE 是 5.8.1,reactor 模型, ACE_Dev_Poll_Reactor

            5555 是 ACE 的服務(wù)器 6666 是 aiso 1.45 服務(wù)器

            server:5555 sessions:1
            941965312 total bytes written
            941948928 total bytes read
            server:6666 sessions:1
            1029111808 total bytes written
            1029095424 total bytes read

            server:5555 sessions:10
            2783215616 total bytes written
            2783100928 total bytes read
            server:6666 sessions:10
            2227601408 total bytes written
            2227503104 total bytes read

            server:5555 sessions:100
            1310179328 total bytes written
            1308786688 total bytes read
            server:6666 sessions:100
            981581824 total bytes written
            979976192 total bytes read

            server:5555 sessions:1000
            430227456 total bytes written
            424837120 total bytes read
            server:6666 sessions:1000
            148946944 total bytes written
            143015936 total bytes read

            ACE 源碼如下
            #include <ace/ACE.h>
            #include <ace/Acceptor.h>
            #include <ace/Task.h>
            #include <ace/Svc_Handler.h>
            #include <ace/SOCK_Stream.h>
            #include <ace/SOCK_Acceptor.h>
            #include <ace/INET_Addr.h>
            #include <ace/Reactor.h>
            #include <ace/Dev_Poll_Reactor.h>


            int BLOCKSIZE = 16384;


            class PingHandler : public ACE_Svc_Handler<ACE_SOCK_STREAM, ACE_NULL_SYNCH>
            {
            public:
            PingHandler()
            {
            m_rbuff = NULL;
            ACE_NEW(m_rbuff, ACE_Message_Block(BLOCKSIZE));
            }
            virtual ~PingHandler()
            {
            ACE_Message_Block::release(m_rbuff);
            }

            virtual int handle_input(ACE_HANDLE /*fd*/)
            {
            int ret = 0;
            ssize_t bytes_required = m_rbuff->space();
            ssize_t bytes_read = 0;
            bytes_read = peer().recv(m_rbuff->wr_ptr(), m_rbuff->space());
            if (bytes_read <= 0)
            return -1;
            m_rbuff->wr_ptr(bytes_read);
            if (m_rbuff->space() == 0)
            {
            peer().send(m_rbuff->rd_ptr(), m_rbuff->length());
            m_rbuff->reset();
            }
            return 0;
            }

            protected:
            ACE_Message_Block * m_rbuff;
            };


            typedef ACE_Acceptor<PingHandler, ACE_SOCK_ACCEPTOR> PingAcceptor;

            void usage()
            {
            ACE_DEBUG((LM_DEBUG,
            ACE_TEXT("server <ip> <port> <threads> <blocksize>\n")));
            }

            int ACE_TMAIN(int argc, ACE_TCHAR * argv[])
            {
            if (argc != 5)
            {
            usage();
            return 0;
            }

            ACE_Dev_Poll_Reactor dpr(1024);
            ACE_Reactor r(&dpr);

            const ACE_TCHAR * ip = argv[1];
            u_short port = (u_short)ACE_OS::atoi(argv[2]);
            int threads = ACE_OS::atoi(argv[3]);
            BLOCKSIZE = ACE_OS::atoi(argv[4]);

            PingAcceptor acceptor;
            ACE_INET_Addr addr(port, ip);
            if (acceptor.open(addr, &r) == -1)
            {
            ACE_DEBUG((LM_DEBUG, ACE_TEXT("faield:%p\n")));
            return -1;
            }

            r.run_reactor_event_loop();
            return 0;
            }  回復(fù)  更多評論   

            # re: muduo 與 boost asio 吞吐量對比 2010-09-06 11:59 普派

            謝謝,收藏了  回復(fù)  更多評論   

            # re: muduo 與 boost asio 吞吐量對比 2010-09-10 20:01 陳碩

            @imjj
            希望看到 client 端的 ACE 實現(xiàn)。  回復(fù)  更多評論   

            # re: muduo 與 boost asio 吞吐量對比 2013-04-27 13:55 yayj

            我修改了下asio的測試代碼,讓每個worker線程使用不同的io_service,但測試結(jié)果與只有一個io_service相比,沒有明顯的改善。所以可能不是io_service的數(shù)量問題。代碼鏈接https://gist.github.com/yayj/5472033, 有使用c++11的unique_ptr  回復(fù)  更多評論   

            <2013年8月>
            28293031123
            45678910
            11121314151617
            18192021222324
            25262728293031
            1234567

            導(dǎo)航

            統(tǒng)計

            常用鏈接

            隨筆分類

            隨筆檔案

            相冊

            搜索

            最新評論

            閱讀排行榜

            評論排行榜

            久久精品无码免费不卡| 久久乐国产综合亚洲精品| 精品久久久久久成人AV| 7国产欧美日韩综合天堂中文久久久久 | 蜜臀久久99精品久久久久久小说| 久久午夜无码鲁丝片| 99热精品久久只有精品| 无码久久精品国产亚洲Av影片| 91精品国产91久久| 久久精品国产亚洲AV无码偷窥| 久久精品无码免费不卡| 久久精品国产亚洲77777| 亚洲?V乱码久久精品蜜桃| 精品久久一区二区| 亚洲精品乱码久久久久久| 狠狠色综合网站久久久久久久| 亚洲国产精品无码久久久不卡 | 欧美麻豆久久久久久中文| AV无码久久久久不卡网站下载| 2021久久精品免费观看| 青青草国产97免久久费观看| 久久成人精品视频| 久久精品一本到99热免费| 亚洲va久久久噜噜噜久久| 性做久久久久久久久浪潮| 亚洲一区二区三区日本久久九| 青草国产精品久久久久久| 久久只有这里有精品4| 久久精品不卡| 日本久久中文字幕| 久久久这里只有精品加勒比| 一级做a爰片久久毛片毛片| 久久久久亚洲av成人无码电影| 国产午夜精品久久久久九九电影| 久久婷婷综合中文字幕| 伊人丁香狠狠色综合久久| 伊人久久大香线蕉影院95| 精品久久久久久久久中文字幕| 久久99毛片免费观看不卡| 欧美亚洲另类久久综合| 99久久国产综合精品五月天喷水|