• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            隨筆-5  評論-31  文章-0  trackbacks-0

            協程

            協程,即協作式程序,其思想是,一系列互相依賴的協程間依次使用CPU,每次只有一個協程工作,而其他協程處于休眠狀態。協程可以在運行期間的某個點上暫停執行,并在恢復運行時從暫停的點上繼續執行。 協程已經被證明是一種非常有用的程序組件,不僅被python、lua、ruby等腳本語言廣泛采用,而且被新一代面向多核的編程語言如golang rust-lang等采用作為并發的基本單位。 協程可以被認為是一種用戶空間線程,與傳統的線程相比,有2個主要的優點:

            • 與線程不同,協程是自己主動讓出CPU,并交付他期望的下一個協程運行,而不是在任何時候都有可能被系統調度打斷。因此協程的使用更加清晰易懂,并且多數情況下不需要鎖機制。
            • 與線程相比,協程的切換由程序控制,發生在用戶空間而非內核空間,因此切換的代價非常小。

            網絡編程模型

            首先來簡單回顧一下一些常用的網絡編程模型。網絡編程模型可以大體的分為同步模型和異步模型兩類。

            • 同步模型:

            同步模型使用阻塞IO模式,在阻塞IO模式下調用read等IO函數時會阻塞線程直到IO完成或失敗。

            同步模型的典型代表是thread per connection模型,每當阻塞在主線程上的accept調用返回時則創建一個新的線程去服務于新的socket的讀/寫。這種模型的優點是程序簡潔,編寫簡單;缺點是可伸縮性收到線程數的限制,當連接越來越多時,線程也越來越多,頻繁的線程切換會嚴重拖累性能。

            • 異步模型:

            異步模型一般使用非阻塞IO模式,并配合epoll/select/poll等多路復用機制。在非阻塞模式下調用read,如果沒有數據可讀則立即返回并通知用戶沒有可讀(EAGAIN/EWOULDBLOCK),而非阻塞當前線程。異步模型可以使一個線程同時服務于多個IO對象。

            異步模型的典型代表是reactor模型。在reactor模型中,我們將所有要處理的IO事件注冊到一個中心的IO多路復用器中(一般為epoll/select/poll),同時主線程阻塞在多路復用器上。一旦有IO事件到來或者就緒,多路復用器返回并將對應的IO事件分發到對應的處理器(即回調函數)中,最后處理器調用read/write函數來進行IO操作。

            異步模型的特點是性能和可伸縮性比同步模型要好很多,但是其結構復雜,不易于編寫和維護。在異步模型中,IO之前的代碼(IO任務的提交者)和IO之后的處理代碼(回調函數)是割裂開來的。

            協程與網絡編程

            協程為克服同步模型和異步模型的缺點,并結合他們的優點提供了可能: 現在假設我們有3個協程A,B,C分別要進行數次IO操作。這3個協程運行在同一個調度器或者說線程的上下文中,并依次使用CPU。調度器在其內部維護了一個多路復用器(epoll/select/poll)。

            協程A首先運行,當它執行到一個IO操作,但該IO操作并沒有立即就緒時,A將該IO事件注冊到調度器中,并主動放棄CPU。這時調度器將B切換到CPU上開始執行,同樣,當它碰到一個IO操作的時候將IO事件注冊到調度器中,并主動放棄CPU。調度器將C切換到cpu上開始執行。當所有協程都被“阻塞”后,調度器檢查注冊的IO事件是否發生或就緒。假設此時協程B注冊的IO時間已經就緒,調度器將恢復B的執行,B將從上次放棄CPU的地方接著向下運行。A和C同理。

            這樣,對于每一個協程來說,是同步的模型;但是對于整個應用程序來說,卻是異步的模型。

            好了,原理說完了,我們來看一個實際的例子,echo server。

            echo server

            在這個例子中,我們將使用orchid庫來編寫一個echo server。orchid庫是一個構建于boost基礎上的 協程/網絡IO 庫。

            echo server首先必須要處理連接事件,我們創建一個協程來專門處理連接事件:

            typedef boost::shared_ptr<orchid::socket> socket_ptr; 
            //處理ACCEPT事件的協程
            void handle_accept(orchid::coroutine_handle co) {
            try {
                     orchid::acceptor acceptor(co -> get_scheduler().get_io_service());//構建一個acceptor
            acceptor.bind_and_listen("5678",true);
                     for(;;) {
                        socket_ptr sock(new orchid::socket(co -> get_scheduler().get_io_service()));
            acceptor.accept(*sock,co);
                        //在調度器上創建一個協程來服務新的socket。第一個參數是要創建的協程的main函數,第二個參數是要創建的協程的棧的大小。
                        co -> get_scheduler().spawn(boost::bind(handle_io,_1,sock),orchid::minimum_stack_size());
            }
            } catch(boost::system::system_error& e) {
                        cerr<<e.code()<<" "<<e.what()<<endl;
            }
            }

            在orchid中,協程的main函數必須滿足函數簽名void(orchid::coroutine_handle),如handle_accept所示,其中參數co是協程句柄,代表了當前函數所位于的協程。

            在上面的代碼中,我們創建了一個acceptor,并讓它監聽5678端口,然后在"阻塞"等待連接到來,當連接事件到來時,創建一個新的協程來服務新的socket。處理套接字IO的協程如下:

            //處理SOCKET IO事件的協程 
            void handle_io(orchid::coroutine_handle co,socket_ptr sock) {
               orchid::tcp_ostream out(*sock,co);
               orchid::tcp_istream in(*sock,co);
               for(std::string str;std::getline(in, str) && out;) {
                  out<<str<<endl;
               }
            }

            IO處理協程首先在傳入的套接字上創建了一個輸入流和一個輸出流,分別代表了TCP的輸入和輸出。然后不斷地從輸入流中讀取一行,并輸出到輸出流當中。當socket上的TCP連接斷開時,輸入流和輸出流的eof標志為會被置位,因此循環結束,協程退出。

            orchid可以使用戶以流的形式來操作套接字。輸入流和輸出流分別提供了std::istream和std::ostream的接口;輸入流和輸出流是帶緩沖的,如果用戶需要無緩沖的讀寫socket或者自建緩沖,可以直接調用orchid::socket的read和write函數。但是需要注意這兩個函數會拋出boost::system_error異常來表示錯誤。

            細心的讀者可能已經發現,handle_io的函數簽名并不滿足void(orchid::coroutine_handle),回到handle_accept中,可以發現,實際上我們使用了boost.bind對handle _ io函數進行了適配,使之符合函數簽名的要求。

            最后是main函數:

            int main() {     
               orchid::scheduler sche;
               sche.spawn(handle_accept,orchid::coroutine::minimum_stack_size());//創建協程
               sche.run();
            }

            在上面這個echo server的例子中,我們采用了一種 coroutine per connection 的編程模型,與傳統的 thread per connection 模型一樣的簡潔清晰,但是整個程序實際上運行在同一線程當中。

            由于協程的切換開銷遠遠小于線程,因此我們可以輕易的同時啟動上千協程來同時服務上千連接,這是 thread per connection的模型很難做到的;在性能方面,整個底層的IO系統實際上是使用boost.asio這種高性能的異步io庫實現的。而且與IO所費的時間相比,協程切換的開銷基本可以忽略。

            因此通過協程,我們可以在保持同步IO模型簡潔性的同時,獲得近似于異步IO模型的高性能。

            posted on 2013-01-01 13:14 江浸月 閱讀(6061) 評論(5)  編輯 收藏 引用

            評論:
            # re: C++ 協程與網絡編程 2013-01-04 02:56 | Lo
            你好,很喜歡這個模型,但看了一下不支持windows,可以支持一下win嗎?  回復  更多評論
              
            # re: C++ 協程與網絡編程 2013-01-04 13:02 | ioriiod0
            @Lo
            謝謝關注,最近有時間的話我完善對win的支持的。  回復  更多評論
              
            # re: C++ 協程與網絡編程[未登錄] 2013-01-05 16:18 | sand
            leader-follow線程模型?  回復  更多評論
              
            # re: C++ 協程與網絡編程 2013-10-27 22:21 | pseudo
            有性能評估嗎?  回復  更多評論
              
            # re: C++ 協程與網絡編程 2013-11-25 16:59 | warlock
            請問,最多可以創建多少個協程?可以達到幾十萬嗎?  回復  更多評論
              
            亚洲婷婷国产精品电影人久久| 99久久精品国内| 成人精品一区二区久久久| 国产∨亚洲V天堂无码久久久| 亚洲中文久久精品无码ww16| 久久福利资源国产精品999| 色综合久久天天综线观看| 久久久久久无码国产精品中文字幕 | 久久精品国产亚洲Aⅴ蜜臀色欲| 亚洲综合精品香蕉久久网97| 日韩精品久久久久久| 国产精品久久久天天影视香蕉 | 国产一区二区精品久久凹凸| 91精品观看91久久久久久| 国产精品99久久久久久猫咪| 人妻精品久久久久中文字幕| 一本综合久久国产二区| 亚洲欧美日韩中文久久| 丁香狠狠色婷婷久久综合| 国产99久久九九精品无码| 午夜精品久久久久久影视riav| 狠狠色噜噜色狠狠狠综合久久| 精品久久人妻av中文字幕| 久久久久免费精品国产| 久久夜色撩人精品国产小说| 一本色综合网久久| 大伊人青草狠狠久久| 亚洲欧美一区二区三区久久| 国产午夜福利精品久久2021| 久久中文字幕无码专区| 久久久久99精品成人片试看| 国产精品丝袜久久久久久不卡| 中文字幕乱码久久午夜| 国产午夜福利精品久久| 一本一本久久aa综合精品| 99久久国产亚洲高清观看2024| 欧美亚洲国产精品久久久久| 91精品免费久久久久久久久| 久久久久亚洲国产| 精品久久久久中文字幕一区| 久久综合精品国产二区无码|