Linux 2.6內(nèi)核中提高網(wǎng)絡I/O性能的新方法epoll
正如我昨天在“Linux下各類TCP網(wǎng)絡服務器的實現(xiàn)源代碼”(http://zhoulifa.bokee.com/5345930.html)一文中提到的那樣,I/O多路復用技術在比較多的TCP網(wǎng)絡服務器中有使用,即比較多的用到select函數(shù)。
感謝chinaunix.net上朋友safedead(http://bbs.chinaunix.net/viewpro.php?uid=407631)提醒,我今天仔細研究了一下,證實了在2.6內(nèi)核中的新的I/O技術epoll。
1、為什么select是落后的?
首先,在Linux內(nèi)核中,select所用到的FD_SET是有限的,即內(nèi)核中有個參數(shù)__FD_SETSIZE定義了每個FD_SET的句柄個數(shù),在我用的2.6.15-25-386內(nèi)核中,該值是1024,搜索內(nèi)核源代碼得到:
include/linux/posix_types.h:#define __FD_SETSIZE 1024
也就是說,如果想要同時檢測1025個句柄的可讀狀態(tài)是不可能用select實現(xiàn)的。或者同時檢測1025個句柄的可寫狀態(tài)也是不可能的。
其次,內(nèi)核中實現(xiàn)select是用輪詢方法,即每次檢測都會遍歷所有FD_SET中的句柄,顯然,select函數(shù)執(zhí)行時間與FD_SET中的句柄個數(shù)有一個比例關系,即select要檢測的句柄數(shù)越多就會越費時。
當然,在前文中我并沒有提及poll方法,事實上用select的朋友一定也試過poll,我個人覺得select和poll大同小異,個人偏好于用select而已。
/************關于本文檔********************************************
*filename: Linux 2.6內(nèi)核中提高網(wǎng)絡I/O性能的新方法epoll
*purpose: 補充“Linux下各類TCP網(wǎng)絡服務器的實現(xiàn)源代碼”一文的不足之處
*wrote by: zhoulifa(zhoulifa@163.com) 周立發(fā)(http://zhoulifa.bokee.com)
Linux愛好者 Linux知識傳播者 SOHO族 開發(fā)者 最擅長C語言
*date time:2006-07-06 22:30:00
*Note: 任何人可以任意復制代碼并運用這些文檔,當然包括你的商業(yè)用途
* 但請遵循GPL
*Hope:希望越來越多的人貢獻自己的力量,為科學技術發(fā)展出力
*********************************************************************/
2、2.6內(nèi)核中提高I/O性能的新方法epoll
epoll是什么?按照man手冊的說法:是為處理大批量句柄而作了改進的poll。要使用epoll只需要這三個系統(tǒng)調(diào)用:epoll_create(2), epoll_ctl(2), epoll_wait(2)。
當然,這不是2.6內(nèi)核才有的,它是在2.5.44內(nèi)核中被引進的(epoll(4) is a new API introduced in Linux kernel 2.5.44)
以下文章轉自滕昱的Web Log http://mechgouki.spaces.msn.com/blog/PersonalSpace.aspx/*********************************引用開始******************************/
Linux2.6內(nèi)核epoll介紹---我的blog 2005/3/30
[作者]:滕昱,2005/3/30,0.1版本
[版權聲明]:此文檔遵循GNU自由文檔許可證(GNU Free Documentation License).任何人可以自由復制,分發(fā),修改,不過如果方便,請注明出處和作者:)
(1)導言:
首先,我強烈建議大家閱讀Richard Stevens著作《TCP/IP Illustracted Volume 1,2,3》和《UNIX Network Programming Volume 1,2》。雖然他離開我們大家已經(jīng)5年多了,但是他的書依然是進入網(wǎng)絡編程的最直接的道路。其中的3卷的《TCP/IP Illustracted》卷1是必讀-如果你不了解tcp協(xié)議各個選項的詳細定義,你就失去了優(yōu)化程序重要的一個手段。卷2,3可以選讀一下。比如卷2 講解的是4.4BSD內(nèi)核TCP/IP協(xié)議棧實現(xiàn)----這個版本的協(xié)議棧幾乎影響了現(xiàn)在所有的主流os,但是因為年代久遠,內(nèi)容不一定那么vogue. 在這里我多推薦一本《The Linux Networking Architecture--Design and Implementation of Network Protocols in the Linux Kernel》,以2.4內(nèi)核講解Linux TCP/IP實現(xiàn),相當不錯.作為一個現(xiàn)實世界中的實現(xiàn),很多時候你必須作很多權衡,這時候參考一個久經(jīng)考驗的系統(tǒng)更有實際意義。舉個例子,linux內(nèi)核中sk_buff結構為了追求速度和安全,犧牲了部分內(nèi)存,所以在發(fā)送TCP包的時候,無論應用層數(shù)據(jù)多大,sk_buff最小也有272的字節(jié).
其實對于socket應用層程序來說,《UNIX Network Programming Volume 1》意義更大一點.2003年的時候,這本書出了最新的第3版本,不過主要還是修訂第2版本。其中第6章《I/O Multiplexing》是最重要的。Stevens給出了網(wǎng)絡IO的基本模型。在這里最重要的莫過于select模型和Asynchronous I/O模型.從理論上說,AIO似乎是最高效的,你的IO操作可以立即返回,然后等待os告訴你IO操作完成。但是一直以來,如何實現(xiàn)就沒有一個完美的方案。最著名的windows完成端口實現(xiàn)的AIO,實際上也是內(nèi)部用線程池實現(xiàn)的罷了,最后的結果是IO有個線程池,你應用也需要一個線程池...... 很多文檔其實已經(jīng)指出了這帶來的線程context-switch帶來的代價。
在linux 平臺上,關于網(wǎng)絡AIO一直是改動最多的地方,2.4的年代就有很多AIO內(nèi)核patch,最著名的應該算是SGI那個。但是一直到2.6內(nèi)核發(fā)布,網(wǎng)絡模塊的AIO一直沒有進入穩(wěn)定內(nèi)核版本(大部分都是使用用戶線程模擬方法,在使用了NPTL的linux上面其實和windows的完成端口基本上差不多了)。2.6內(nèi)核所支持的AIO特指磁盤的AIO---支持io_submit(),io_getevents()以及對Direct IO的支持(就是繞過VFS系統(tǒng)buffer直接寫硬盤,對于流服務器在內(nèi)存平穩(wěn)性上有相當幫助)。
所以,剩下的select模型基本上就是我們在linux上面的唯一選擇,其實,如果加上no-block socket的配置,可以完成一個"偽"AIO的實現(xiàn),只不過推動力在于你而不是os而已。不過傳統(tǒng)的select/poll函數(shù)有著一些無法忍受的缺點,所以改進一直是2.4-2.5開發(fā)版本內(nèi)核的任務,包括/dev/poll,reltime signal等等。最終,Davide Libenzi開發(fā)的epoll進入2.6內(nèi)核成為正式的解決方案
(2)epoll的優(yōu)點
<1>支持一個進程打開大數(shù)目的socket描述符(FD)
select 最不能忍受的是一個進程所打開的FD是有一定限制的,由FD_SETSIZE設置,默認值是2048。對于那些需要支持的上萬連接數(shù)目的IM服務器來說顯然太少了。這時候你一是可以選擇修改這個宏然后重新編譯內(nèi)核,不過資料也同時指出這樣會帶來網(wǎng)絡效率的下降,二是可以選擇多進程的解決方案(傳統(tǒng)的Apache方案),不過雖然linux上面創(chuàng)建進程的代價比較小,但仍舊是不可忽視的,加上進程間數(shù)據(jù)同步遠比不上線程間同步的高效,所以也不是一種完美的方案。不過 epoll則沒有這個限制,它所支持的FD上限是最大可以打開文件的數(shù)目,這個數(shù)字一般遠大于2048,舉個例子,在1GB內(nèi)存的機器上大約是10萬左右,具體數(shù)目可以cat /proc/sys/fs/file-max察看,一般來說這個數(shù)目和系統(tǒng)內(nèi)存關系很大。
<2>IO效率不隨FD數(shù)目增加而線性下降
傳統(tǒng)的select/poll另一個致命弱點就是當你擁有一個很大的socket集合,不過由于網(wǎng)絡延時,任一時間只有部分的socket是"活躍"的,但是select/poll每次調(diào)用都會線性掃描全部的集合,導致效率呈現(xiàn)線性下降。但是epoll不存在這個問題,它只會對"活躍"的socket進行操作---這是因為在內(nèi)核實現(xiàn)中epoll是根據(jù)每個fd上面的callback函數(shù)實現(xiàn)的。那么,只有"活躍"的socket才會主動的去調(diào)用 callback函數(shù),其他idle狀態(tài)socket則不會,在這點上,epoll實現(xiàn)了一個"偽"AIO,因為這時候推動力在os內(nèi)核。在一些 benchmark中,如果所有的socket基本上都是活躍的---比如一個高速LAN環(huán)境,epoll并不比select/poll有什么效率,相反,如果過多使用epoll_ctl,效率相比還有稍微的下降。但是一旦使用idle connections模擬WAN環(huán)境,epoll的效率就遠在select/poll之上了。
<3>使用mmap加速內(nèi)核與用戶空間的消息傳遞。
這點實際上涉及到epoll的具體實現(xiàn)了。無論是select,poll還是epoll都需要內(nèi)核把FD消息通知給用戶空間,如何避免不必要的內(nèi)存拷貝就很重要,在這點上,epoll是通過內(nèi)核于用戶空間mmap同一塊內(nèi)存實現(xiàn)的。而如果你想我一樣從2.5內(nèi)核就關注epoll的話,一定不會忘記手工 mmap這一步的。
<4>內(nèi)核微調(diào)
這一點其實不算epoll的優(yōu)點了,而是整個linux平臺的優(yōu)點。也許你可以懷疑linux平臺,但是你無法回避linux平臺賦予你微調(diào)內(nèi)核的能力。比如,內(nèi)核TCP/IP協(xié)議棧使用內(nèi)存池管理sk_buff結構,那么可以在運行時期動態(tài)調(diào)整這個內(nèi)存pool(skb_head_pool)的大小--- 通過echo XXXX>/proc/sys/net/core/hot_list_length完成。再比如listen函數(shù)的第2個參數(shù)(TCP完成3次握手的數(shù)據(jù)包隊列長度),也可以根據(jù)你平臺內(nèi)存大小動態(tài)調(diào)整。更甚至在一個數(shù)據(jù)包面數(shù)目巨大但同時每個數(shù)據(jù)包本身大小卻很小的特殊系統(tǒng)上嘗試最新的NAPI網(wǎng)卡驅(qū)動架構。
(3)epoll的使用
令人高興的是,2.6內(nèi)核的epoll比其2.5開發(fā)版本的/dev/epoll簡潔了許多,所以,大部分情況下,強大的東西往往是簡單的。唯一有點麻煩是epoll有2種工作方式:LT和ET。
LT(level triggered)是缺省的工作方式,并且同時支持block和no-block socket.在這種做法中,內(nèi)核告訴你一個文件描述符是否就緒了,然后你可以對這個就緒的fd進行IO操作。如果你不作任何操作,內(nèi)核還是會繼續(xù)通知你的,所以,這種模式編程出錯誤可能性要小一點。傳統(tǒng)的select/poll都是這種模型的代表.
ET (edge-triggered)是高速工作方式,只支持no-block socket。在這種模式下,當描述符從未就緒變?yōu)榫途w時,內(nèi)核通過epoll告訴你。然后它會假設你知道文件描述符已經(jīng)就緒,并且不會再為那個文件描述符發(fā)送更多的就緒通知,直到你做了某些操作導致那個文件描述符不再為就緒狀態(tài)了(比如,你在發(fā)送,接收或者接收請求,或者發(fā)送接收的數(shù)據(jù)少于一定量時導致了一個EWOULDBLOCK 錯誤)。但是請注意,如果一直不對這個fd作IO操作(從而導致它再次變成未就緒),內(nèi)核不會發(fā)送更多的通知(only once),不過在TCP協(xié)議中,ET模式的加速效用仍需要更多的benchmark確認。
epoll只有epoll_create,epoll_ctl,epoll_wait 3個系統(tǒng)調(diào)用,具體用法請參考http://www.xmailserver.org/linux-patches/nio-improve.html ,
在http://www.kegel.com/rn/也有一個完整的例子,大家一看就知道如何使用了
(4)Leader/follower模式線程pool實現(xiàn),以及和epoll的配合
.....未完成,主要是要避免過多的epoll_ctl調(diào)用,以及嘗試使用EPOLLONESHOT加速......
(5)benchmark
.......未完成
/*********************************引用結束******************************/
3、epoll的使用方法
這是epoll的man手冊提供的一個例子,這段代碼假設一個非阻塞的socket監(jiān)聽listener被建立并且一個epoll句柄kdpfd已經(jīng)提前用epoll_create建立了: struct epoll_event ev, *events;
for(;;) {
nfds = epoll_wait(kdpfd, events, maxevents, -1);/*wait for an I/O event. All notes here added by zhoulifa(http://zhoulifa.bokee.com) on 2006-7-6 22:10:00*/
for(n = 0; n < nfds; ++n) {
if(events[n].data.fd == listener) {/*if listen socket has an I/O, accept the new connect*/
client = accept(listener, (struct sockaddr *) &local,
&addrlen);
if(client < 0){
perror("accept");
continue;
}
setnonblocking(client);
ev.events = EPOLLIN | EPOLLET;/*EPOLLIN-available for read*/
ev.data.fd = client;
if (epoll_ctl(kdpfd, EPOLL_CTL_ADD, client, &ev) < 0) {/*add the new socket into the epoll file descriptors*/
fprintf(stderr, "epoll set insertion error: fd=%d\n",
client);
return -1;
}
}
else
do_use_fd(events[n].data.fd);/*read from a socket which has data come*/
}
}
4、epoll使用方法示意代碼
以下代碼由chinaunix.net上BBS用戶safedead(http://bbs.chinaunix.net/viewpro.php?uid=407631)提供:
static int s_epfd;//epoll描述字
{//初始化epoll
&nsp; struct epoll_event ev;
//設置epoll
s_epfd = epoll_create(65535);
{//這個過程可以循環(huán)以便加入多個LISTEN套接字進入epoll事件集合
//服務器監(jiān)聽創(chuàng)建
rc = listen();//listen參數(shù)這里省略
//加入epoll事件集合
ev.events = EPOLLIN;
ev.data.fd = rc;
if (epoll_ctl(s_epfd, EPOLL_CTL_ADD, rc, &ev) < 0) {
fprintf(stderr, "epoll set insertion error: fd=%d", rc);
return(-1);
}
}
}
{//epoll事件處理
int i, nfds, sock_new;
struct epoll_event events[16384];
for( ; ; ) {
//等待epoll事件
nfds = epoll_wait(s_epfd, events, 16384, -1);
//處理epoll事件
for(i = 0; i < nfds; i++) {
//events[i].data.fd是epoll事件中彈出的套接字
//接收連接
sock_new = accept(events[i].data.fd);//accept其它參數(shù)這里省略了
if(0 > sock_new) {
fprintf(stderr, "接收客戶端連接失敗\n");
continue;
}
}
}
}
對照safedead和前面的一份代碼,我想大家一定是明白了的。