• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            doing5552

            記錄每日點滴,不枉人生一世

              C++博客 :: 首頁 :: 聯系 :: 聚合  :: 管理
              73 Posts :: 0 Stories :: 94 Comments :: 0 Trackbacks

            公告

            常用鏈接

            留言簿(24)

            我參與的團隊

            最新隨筆

            搜索

            •  

            積分與排名

            • 積分 - 454869
            • 排名 - 48

            最新隨筆

            最新評論

            閱讀排行榜

            評論排行榜

            關于epoll的用法的說明
            2010年04月21日 星期三 上午 11:51

            以下文章轉在網絡,對epoll說明比較詳細

            epoll - I/O event notification facility

            在linux的網絡編程中,很長的時間都在使用select來做事件觸發。在linux新的內核中,有了一種替換它的機制,就是epoll。
            相比于select,epoll最大的好處在于它不會隨著監聽fd數目的增長而降低效率。因為在內核中的select實現中,它是采用輪詢來處理的,輪詢 的fd數目越多,自然耗時越多。并且,在linux/posix_types.h頭文件有這樣的聲明:
            #define __FD_SETSIZE    1024
            表示select最多同時監聽1024個fd,當然,可以通過修改頭文件再重編譯內核來擴大這個數目,但這似乎并不治本。

            epoll的接口非常簡單,一共就三個函數:
            1. int epoll_create(int size);
            創 建一個epoll的句柄,size用來告訴內核這個監聽的數目一共有多大。這個參數不同于select()中的第一個參數,給出最大監聽的fd+1的值。 需要注意的是,當創建好epoll句柄后,它就是會占用一個fd值,在linux下如果查看/proc/進程id/fd/,是能夠看到這個fd的,所以在 使用完epoll后,必須調用close()關閉,否則可能導致fd被耗盡。


            2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
            epoll的事件注冊函數,它不同與select()是在監聽事件時告訴內核要監聽什么類型的事件,而是在這里先注冊要監聽的事件類型。第一個參數是 epoll_create()的返回值,第二個參數表示動作,用三個宏來表示:
            EPOLL_CTL_ADD:注冊新的fd到epfd中;
            EPOLL_CTL_MOD:修改已經注冊的fd的監聽事件;
            EPOLL_CTL_DEL:從epfd中刪除一個fd;
            第三個參數是需要監聽的fd,第四個參數是告訴內核需要監聽什么事,struct epoll_event結構如下:

            typedef union epoll_data {
            void *ptr;
            int fd;
            __uint32_t u32;
            __uint64_t u64;
            } epoll_data_t;

            struct epoll_event {
            __uint32_t events; /* Epoll events */
            epoll_data_t data; /* User data variable */
            };

            events可以是以下幾個宏的集合:
            EPOLLIN :表示對應的文件描述符可以讀(包括對端SOCKET正常關閉);
            EPOLLOUT:表示對應的文件描述符可以寫;
            EPOLLPRI:表示對應的文件描述符有緊急的數據可讀(這里應該表示有帶外數據到來);
            EPOLLERR:表示對應的文件描述符發生錯誤;
            EPOLLHUP:表示對應的文件描述符被掛斷;
            EPOLLET: 將EPOLL設為邊緣觸發(Edge Triggered)模式,這是相對于水平觸發(Level Triggered)來說的。
            EPOLLONESHOT:只監聽一次事件,當監聽完這次事件之后,如果還需要繼續監聽這個socket的話,需要再次把這個socket加入到 EPOLL隊列里


            3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
            等 待事件的產生,類似于select()調用。參數events用來從內核得到事件的集合,maxevents告之內核這個events有多大,這個 maxevents的值不能大于創建epoll_create()時的size,參數timeout是超時時間(毫秒,0會立即返回,-1將不確定,也有 說法說是永久阻塞)。該函數返回需要處理的事件數目,如返回0表示已超時。


            4、關于ET、LT兩種工作模式:
            可以得出這樣的結論:
            ET 模式僅當狀態發生變化的時候才獲得通知,這里所謂的狀態的變化并不包括緩沖區中還有未處理的數據,也就是說,如果要采用ET模式,需要一直 read/write直到出錯為止,很多人反映為什么采用ET模式只接收了一部分數據就再也得不到通知了,大多因為這樣;而LT模式是只要有數據沒有處理 就會一直通知下去的.


            那么究竟如何來使用epoll呢?其實非常簡單。
            通過在包含一個頭文件#include <sys/epoll.h> 以及幾個簡單的API將可以大大的提高你的網絡服務器的支持人數。

            首 先通過create_epoll(int maxfds)來創建一個epoll的句柄,其中maxfds為你epoll所支持的最大句柄數。這個函數會返回一個新的epoll句柄,之后的所有操作 將通過這個句柄來進行操作。在用完之后,記得用close()來關閉這個創建出來的epoll句柄。

            之后在你的網絡主循環里面,每一幀的調用epoll_wait(int epfd, epoll_event events, int max events, int timeout)來查詢所有的網絡接口,看哪一個可以讀,哪一個可以寫了。基本的語法為:
            nfds = epoll_wait(kdpfd, events, maxevents, -1);
            其 中kdpfd為用epoll_create創建之后的句柄,events是一個epoll_event*的指針,當epoll_wait這個函數操作成功 之后,epoll_events里面將儲存所有的讀寫事件。max_events是當前需要監聽的所有socket句柄數。最后一個timeout是 epoll_wait的超時,為0的時候表示馬上返回,為-1的時候表示一直等下去,直到有事件范圍,為任意正整數的時候表示等這么長的時間,如果一直沒 有事件,則范圍。一般如果網絡主循環是單獨的線程的話,可以用-1來等,這樣可以保證一些效率,如果是和主邏輯在同一個線程的話,則可以用0來保證主循環 的效率。

            epoll_wait范圍之后應該是一個循環,遍利所有的事件。

            幾乎所有的epoll程序都使用下面的框架:

            for( ; ; )
            {
            nfds = epoll_wait(epfd,events,20,500);
            for(i=0;i<nfds;++i)
            {
            if(events[i].data.fd==listenfd) //有新的連接
            {
            connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen); //accept這個連接
            ev.data.fd=connfd;
            ev.events=EPOLLIN|EPOLLET;
            epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); //將新的fd添加到epoll的監聽隊列中
            }
            else if( events[i].events&EPOLLIN ) //接收到數據,讀socket
            {
            n = read(sockfd, line, MAXLINE)) < 0   //讀
            ev.data.ptr = md;    //md為自定義類型,添加數據
            ev.events=EPOLLOUT|EPOLLET;
            epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);//修改標識符,等待下一個循環時發送數據,異步處理的精 髓
            }
            else if(events[i].events&EPOLLOUT) //有數據待發送,寫socket
            {
            struct myepoll_data* md = (myepoll_data*)events[i].data.ptr;   //取數據
            sockfd = md->fd;
            send( sockfd, md->ptr, strlen((char*)md->ptr), 0 );       //發送數據
            ev.data.fd=sockfd;
            ev.events=EPOLLIN|EPOLLET;
            epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); //修改標識符,等待下一個循環時接收數據
            }
            else
            {
            //其他的處理
            }
            }
            }
            posted on 2010-07-18 21:16 doing5552 閱讀(323) 評論(0)  編輯 收藏 引用
            精品精品国产自在久久高清| 2021国内久久精品| 99精品久久精品| 久久夜色精品国产亚洲| 婷婷国产天堂久久综合五月| 国产亚洲精品久久久久秋霞| 久久久久久国产精品免费无码| 久久97精品久久久久久久不卡 | 欧美亚洲另类久久综合婷婷| 中文精品99久久国产| 国内精品久久久人妻中文字幕| 久久国产成人午夜aⅴ影院| 久久久国产乱子伦精品作者| 久久国产香蕉视频| 久久亚洲日韩看片无码| 色综合久久88色综合天天 | 波多野结衣中文字幕久久| 伊人久久大香线蕉精品不卡| 人人狠狠综合久久亚洲88| 亚洲乱码精品久久久久..| 女同久久| 国产高潮国产高潮久久久91| 99久久婷婷免费国产综合精品| 久久精品极品盛宴观看| 久久国产精品免费一区二区三区| 青草国产精品久久久久久| 久久久这里只有精品加勒比| 久久久青草青青亚洲国产免观| 老色鬼久久亚洲AV综合| 中文精品久久久久人妻不卡| 伊人久久大香线蕉无码麻豆| 久久精品一区二区影院| 久久亚洲国产精品123区| 国产精品欧美久久久久无广告| 2020久久精品国产免费| 欧美熟妇另类久久久久久不卡 | 无码人妻久久一区二区三区免费| 久久综合色区| 久久AⅤ人妻少妇嫩草影院| 无码国内精品久久人妻麻豆按摩| 久久精品无码专区免费|