• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            那誰的技術博客

            感興趣領域:高性能服務器編程,存儲,算法,Linux內核
            隨筆 - 210, 文章 - 0, 評論 - 1183, 引用 - 0
            數據加載中……

            lighttpd1.4.18代碼分析(四)--處理監聽fd的流程

            前面介紹了lighttpd使用的watcher-worker模型, 它對IO事件處理的封裝, 現在可以把這些結合起來看看這大概的流程.

            首先, 服務器創建監聽socket, 然后在server.c中調用函數network_register_fdevents將監聽socket注冊到IO事件處理器中:
            int network_register_fdevents(server *srv) {
                size_t i;

                
            if (-1 == fdevent_reset(srv->ev)) {
                    
            return -1;
                }

                
            /* register fdevents after reset */
                
            for (i = 0; i < srv->srv_sockets.used; i++) {
                    server_socket 
            *srv_socket = srv->srv_sockets.ptr[i];

                    fdevent_register(srv
            ->ev, srv_socket->fd, network_server_handle_fdevent, srv_socket);
                    fdevent_event_add(srv
            ->ev, &(srv_socket->fde_ndx), srv_socket->fd, FDEVENT_IN);
                }
                
            return 0;
            }
            在這里, 調用函數fdevent_register注冊fd到IO事件處理器中, 對于服務器監聽fd而言,
            它在fdnode中的回調函數handler是函數network_server_handle_fdevent, 而ctx則是srv_socket.
            接著調用函數fdevent_event_add, 其中傳入的第三個參數是FDEVENT_IN, 也就是當該fd上有可讀數據時觸發調用, 對于所有監聽的fd而言,
            有可讀事件就意味著有新的連接到達.

            然后服務器創建子進程worker, 服務器父進程自己成為watcher, 自此下面的工作由子進程進行處理,
            每個子進程所完成的工作都是一樣的.有的書上說有多個進程在等待accept連接的時候會造成所謂的驚群現象,在lighttpd的代碼中,
            沒有看到在accaept之前進行加鎖操作, 這是否會造成驚群不得而知.

            現在, 在IO事件處理器中僅有一個fd等待觸發, 就是前面注冊的監聽fd, 我們看看當一個連接到來的時候處理的流程, 首先看我們曾經說過的
            輪詢fd進行處理的主循環:
                    // 輪詢FD
                    if ((n = fdevent_poll(srv->ev, 1000)) > 0) {
                        
            /* n is the number of events */
                        
            int revents;
                        
            int fd_ndx;

                        fd_ndx 
            = -1;
                        
            do {
                            fdevent_handler handler;
                            
            void *context;
                            handler_t r;

                            
            // 獲得處理這些事件的函數指針 fd等

                            
            // 獲得下一個fd在fdarray中的索引
                            fd_ndx  = fdevent_event_next_fdndx (srv->ev, fd_ndx);
                            
            // 獲得這個fd要處理的事件類型
                            revents = fdevent_event_get_revent (srv->ev, fd_ndx);
                            
            // 獲取fd
                            fd      = fdevent_event_get_fd     (srv->ev, fd_ndx);
                            
            // 獲取回調函數
                            handler = fdevent_get_handler(srv->ev, fd);
                            
            // 獲取處理相關的context(對server是server_socket指針, 對client是connection指針)
                            context = fdevent_get_context(srv->ev, fd);

                            
            /* connection_handle_fdevent needs a joblist_append */
                            
            // 進行處理
                            switch (r = (*handler)(srv, context, revents)) {
                            
            case HANDLER_FINISHED:
                            
            case HANDLER_GO_ON:
                            
            case HANDLER_WAIT_FOR_EVENT:
                            
            case HANDLER_WAIT_FOR_FD:
                                
            break;
                            
            case HANDLER_ERROR:
                                
            /* should never happen */
                                SEGFAULT();
                                
            break;
                            
            default:
                                log_error_write(srv, __FILE__, __LINE__, 
            "d", r);
                                
            break;
                            }
                        } 
            while (--> 0);
            當一個連接到來的時候, 調用fdevent_poll返回值是1, 因為這個函數的返回值表示的是有多少網絡IO事件被觸發了, 接著由于n>0, 進入循環中
            獲得被觸發的fd, 回調函數, 以及ctx指針, 在這里由于是監聽fd被觸發, 那么返回的回調函數是前面提到的network_server_handle_fdevent,
            接著就要調用這個函數處理IO事件了:
            // 這個函數是處理server事件的函數, 與connection_handle_fdevent對應
            handler_t network_server_handle_fdevent(void *s, void *context, int revents) {
                server     
            *srv = (server *)s;
                server_socket 
            *srv_socket = (server_socket *)context;
                connection 
            *con;
                
            int loops = 0;

                UNUSED(context);

                
            if (revents != FDEVENT_IN) {
                    log_error_write(srv, __FILE__, __LINE__, 
            "sdd",
                            
            "strange event for server socket",
                            srv_socket
            ->fd,
                            revents);
                    
            return HANDLER_ERROR;
                }

                
            /* accept()s at most 100 connections directly
                 *
                 * we jump out after 100 to give the waiting connections a chance 
            */
                
            // 一次最多接受100個鏈接
                for (loops = 0; loops < 100 && NULL != (con = connection_accept(srv, srv_socket)); loops++) {
                    handler_t r;

                    
            // 這里馬上進入狀態機中進行處理僅僅對應狀態為CON_STATE_REQUEST_START這一段
                    
            // 也就是保存連接的時間以及設置一些計數罷了
                    connection_state_machine(srv, con);

                    
            switch(r = plugins_call_handle_joblist(srv, con)) {
                    
            case HANDLER_FINISHED:
                    
            case HANDLER_GO_ON:
                        
            break;
                    
            default:
                        log_error_write(srv, __FILE__, __LINE__, 
            "d", r);
                        
            break;
                    }
                }
                
            return HANDLER_GO_ON;
            }
            我給這段代碼加了一些注釋, 有幾個地方做一些解釋:
            1)UNUSED(context)是一個宏, 擴展開來就是( (void)(context) ), 實際上是一段看似無用的代碼, 因為沒有起什么明顯的作用, 是一句廢話,
            在這個函數中, 實際上沒有使用到參數context, 如果在比較嚴格的編譯器中, 這樣無用的參數會產生一條警告, 說有一個參數沒有使用到, 加上了
            這么一句無用的語句, 就可以避免這個警告.那么, 有人就會問了, 為什么要傳入這么一個無用的參數呢?回答是, 為了滿足這個接口的需求,
            來看看回調函數的類型定義:
            typedef handler_t (*fdevent_handler)(void *srv, void *ctx, int revents);
            這個函數指針要求的第二個參數是一個ctx指針, 對于監聽fd的回調函數network_server_handle_fdevent而言, 它是無用的, 但是對于處理連接fd
            的回調函數而言, 這個指針是有用的.

            2) 在函數的前面, 首先要判斷傳入的event事件是否是FDEVENT_IN, 也就是說, 只可能在fd有可讀數據的時候才觸發該函數, 其它的情況都是錯誤.

            3)函數在最后進入一個循環, 循環的最多次數是100次, 并且當connection_accept函數返回NULL時也終止循環, 也就是說, 當監聽fd被觸發時,
            服務器盡量的去接收新的連接, 最多接收100個新連接, 這樣有一個好處, 假如服務器監聽fd是每次觸發只接收一個新的連接, 那么效率是比較低的,
            不如每次被觸發的時候"盡力"的去接收, 一直到接收了100個新的連接或者沒有可接收的連接之后才返回.接著來看看負責接收新連接的函數
            connection_accept做了什么:
            // 接收一個新的連接
            connection *connection_accept(server *srv, server_socket *srv_socket) {
                
            /* accept everything */

                
            /* search an empty place */
                
            int cnt;
                sock_addr cnt_addr;
                socklen_t cnt_len;
                
            /* accept it and register the fd */

                
            /**
                 * check if we can still open a new connections
                 *
                 * see #1216
                 
            */

                
            // 如果正在使用的連接數大于最大連接數 就返回NULL
                if (srv->conns->used >= srv->max_conns) {
                    
            return NULL;
                }

                cnt_len 
            = sizeof(cnt_addr);

                
            if (-1 == (cnt = accept(srv_socket->fd, (struct sockaddr *&cnt_addr, &cnt_len))) {
                    
            switch (errno) {
                    
            case EAGAIN:
            #if EWOULDBLOCK != EAGAIN
                    
            case EWOULDBLOCK:
            #endif
                    
            case EINTR:
                        
            /* we were stopped _before_ we had a connection */
                    
            case ECONNABORTED: /* this is a FreeBSD thingy */
                        
            /* we were stopped _after_ we had a connection */
                        
            break;
                    
            case EMFILE:
                        
            /* out of fds */
                        
            break;
                    
            default:
                        log_error_write(srv, __FILE__, __LINE__, 
            "ssd""accept failed:", strerror(errno), errno);
                    }
                    
            return NULL;
                } 
            else {
                    connection 
            *con;

                    
            // 當前使用的fd數量+1
                    srv->cur_fds++;

                    
            /* ok, we have the connection, register it */
                    
            // 打開的connection+1(這個成員貌似沒有用)
                    srv->con_opened++;

                    
            // 獲取一個新的connection
                    con = connections_get_new_connection(srv);

                    
            // 保存接收到的fd
                    con->fd = cnt;
                    
            // 索引為-1
                    con->fde_ndx = -1;
            #if 0
                    gettimeofday(
            &(con->start_tv), NULL);
            #endif
                    
            // 注冊函數指針和connection指針
                    fdevent_register(srv->ev, con->fd, connection_handle_fdevent, con);

                    
            // 狀態為可以接收請求
                    connection_set_state(srv, con, CON_STATE_REQUEST_START);

                    
            // 保存接收連接的時間
                    con->connection_start = srv->cur_ts;
                    
            // 保存目標地址
                    con->dst_addr = cnt_addr;
                    buffer_copy_string(con
            ->dst_addr_buf, inet_ntop_cache_get_ip(srv, &(con->dst_addr)));
                    
            // 保存server_socket指針
                    con->srv_socket = srv_socket;

                    
            // 設置一下接收來的FD, 設置為非阻塞
                    if (-1 == (fdevent_fcntl_set(srv->ev, con->fd))) {
                        log_error_write(srv, __FILE__, __LINE__, 
            "ss""fcntl failed: ", strerror(errno));
                        
            return NULL;
                    }
            #ifdef USE_OPENSSL
                    
            /* connect FD to SSL */
                    
            if (srv_socket->is_ssl) {
                        
            if (NULL == (con->ssl = SSL_new(srv_socket->ssl_ctx))) {
                            log_error_write(srv, __FILE__, __LINE__, 
            "ss""SSL:",
                                    ERR_error_string(ERR_get_error(), NULL));

                            
            return NULL;
                        }

                        SSL_set_accept_state(con
            ->ssl);
                        con
            ->conf.is_ssl=1;

                        
            if (1 != (SSL_set_fd(con->ssl, cnt))) {
                            log_error_write(srv, __FILE__, __LINE__, 
            "ss""SSL:",
                                    ERR_error_string(ERR_get_error(), NULL));
                            
            return NULL;
                        }
                    }
            #endif
                    
            return con;
                }
            }
            拋開出錯處理這部分不解釋, 一旦出錯, 就返回NULL指針, 這時可以終止上面那個循環接收新連接的過程,下面重點看看接收了一個新的連接之后需要
            做哪些事情, 在上面的代碼中我加了一些簡單的注釋, 下面加一些更加詳細些的解釋:
            1)要將服務器已經接收的fd數量(成員cur_fds)加一, 這個數量用于判斷是否可以接收新的連接的, 超過一定的數量時, 服務器就暫停接收,
            等一些fd釋放之后才能繼續接收

            2) 調用函數connections_get_new_connection返回一個connection指針, 用于保存新到的連接, 獲得這個指針之后要保存接收這個連接的時間
            (成員connection_start中), 保存新到連接的地址(成員dst_addr和dst_addr_buf中), 此外還要保存一個server指針, 并且調用函數fdevent_fcntl_set
            將該fd設置為非阻塞的, 最后別忘了要調用fdevent_register函數將該fd注冊到IO事件處理器中, 另外該fd當前的狀態通過connection_set_state設置為
            CON_STATE_REQUEST_START, 這是后面進入狀態機處理連接的基礎.

            了解了這個函數的處理過程, 回頭看看上面的循環:
                for (loops = 0; loops < 100 && NULL != (con = connection_accept(srv, srv_socket)); loops++) {
                    handler_t r;

                    
            // 這里馬上進入狀態機中進行處理僅僅對應狀態為CON_STATE_REQUEST_START這一段
                    
            // 也就是保存連接的時間以及設置一些計數罷了
                    connection_state_machine(srv, con);

                    
            switch(r = plugins_call_handle_joblist(srv, con)) {
                    
            case HANDLER_FINISHED:
                    
            case HANDLER_GO_ON:
                        
            break;
                    
            default:
                        log_error_write(srv, __FILE__, __LINE__, 
            "d", r);
                        
            break;
                    }
                }
            我們已經分析完了函數connection_accept, 當一個新的連接調用這個函數成功返回的時候, 這個循環執行函數connection_state_machine
            進行處理.這是一個非常關鍵的函數, 可以說, 我們后面講解lighttpd的很多筆墨都將花費在這個函數上, 這也是我認為lighttpd實現中最精妙的
            地方之一, 在這里我們先不進行講解, 你所需要知道的是, 在這里, connection_state_machine調用了函數fdevent_event_add, 傳入的事件參數仍然是
            FDEVENT_IN, 也就是說, 對于新加入的fd, 它所首先關注的IO事件也是可讀事件.

            我們大體理一理上面的流程, 省略去對watcher-worker模型的描述:
            創建服務器監聽fd-->
            調用fdevent_register函數將監聽fd注冊到IO事件處理器中-->
            調用fdevent_event_add函數添加FDEVENT_IN到監聽fd所關注的事件中-->

            當一個新的連接到來時:
            IO事件處理器輪詢返回一個>0的值-->
            IO事件處理返回被觸發的fd, 回調函數, ctx指針,在這里就是監聽fd,回調函數則是network_server_handle_fdevent->
            調用監聽fd注冊的回調函數network_server_handle_fdevent-->
            network_server_handle_fdevent函數盡力接收新的連接, 除非已經接收了100個新連接, 或者沒有新連接到來-->
            對于新到來的連接, 同樣是調用fdevent_register函數將它注冊到IO事件處理器中, 同樣調用fdevent_event_add函數添加該fd所關注的事件是FDEVENT_IN

            以上, 就是lighttpd監聽fd處理新連接的大體流程.
            我們知道, fd分為兩種:一種是服務器自己創建的監聽fd, 負責監聽端口, 接收新到來的連接;
            另一種, 就是由監聽fd調用accept函數返回的連接fd, 這兩種fd在處理時都會注冊到IO事件處理器中(調用fdevent_register函數),
            同時添加它們所關注的IO事件(可讀/可寫等)(調用fdevent_event_add函數).

            也就是說,對IO事件處理器而言, 它并不關注所處理的fd是什么類型的, 你要使用它, 那么就把你的fd以及它的回調函數注冊到其中, 同時添加你所關注的IO事件是什么, 當一個fd所關注的IO事件被觸發時, IO事件處理器自動會根據你所注冊的回調函數進行回調處理, 這是關鍵點, 如果你沒有明白, 請回頭看看前面提到的IO事件處理器.

            這些的基礎就是我們前面提到IO事件處理器, 前面我們提到過, lighttpd對IO事件處理的封裝很漂亮, 每個具體實現都按照接口的規范進行處理.
            我們在講解時, 也沒有涉及到任何一個具體實現的細節, 這也是因為lighttpd的封裝很好, 以至于我們只需要了解它們對外的接口不需要深入細節就
            可以明白其運行的原理.在本節中, 我們結合IO事件處理器, 對上面提到的第一種fd也就是監聽fd的處理流程做了介紹, 在后面的內容中, 將重點講解對
            連接fd的處理.


            posted on 2008-09-03 11:17 那誰 閱讀(3843) 評論(3)  編輯 收藏 引用 所屬分類: 網絡編程 、服務器設計Linux/Unix 、lighttpd

            評論

            # re: lighttpd1.4.18代碼分析(四)--處理監聽fd的流程  回復  更多評論   

            mark 有時間好好研究!
            2008-09-03 18:43 | 浪跡天涯

            # re: lighttpd1.4.18代碼分析(四)--處理監聽fd的流程  回復  更多評論   

            寫得不錯
            補充一下,在c++中無作用的語句(像上面那個拙劣的UNUSED宏)是會有警告的(C不會?),一個可選的做法是把形參的名字注釋掉,如
            void foo( int /*arg*/ ){
            }
            甚至可以
            void foo( int /*arg*/ = 0 ){
            }
            一個實用的例子可以參見SGI版STL的std::allocator<T>::dealloate()的實現
            2008-09-08 00:48 | 踏雪赤兔

            # re: lighttpd1.4.18代碼分析(四)--處理監聽fd的流程  回復  更多評論   

            @踏雪赤兔
            兄臺為什么說那個是拙劣的宏呢?
            2011-04-19 16:27 | zhanglistar
            亚洲伊人久久成综合人影院 | 亚洲国产精品久久久天堂| 少妇久久久久久久久久| 久久久久久国产a免费观看黄色大片 | 久久这里只精品国产99热| 久久精品www人人爽人人| 亚洲级αV无码毛片久久精品| 亚洲人成电影网站久久| 久久中文字幕精品| 日韩欧美亚洲综合久久| 国产精品亚洲综合久久| 97精品依人久久久大香线蕉97| 亚洲AV日韩AV永久无码久久| 狠狠色婷婷久久一区二区| 欧洲人妻丰满av无码久久不卡| 色诱久久久久综合网ywww| 国产精品岛国久久久久| 色综合久久中文综合网| 久久夜色撩人精品国产小说| 超级碰碰碰碰97久久久久| 久久精品国产亚洲精品2020| 91久久婷婷国产综合精品青草| a级成人毛片久久| 久久九九久精品国产| 777午夜精品久久av蜜臀| 99久久99这里只有免费费精品| 伊人久久大香线蕉影院95| 三级韩国一区久久二区综合| 久久婷婷五月综合色高清| 国产成人久久久精品二区三区| 久久久久亚洲精品中文字幕| 人妻久久久一区二区三区| 久久99热国产这有精品| 嫩草影院久久国产精品| 伊人伊成久久人综合网777| 无遮挡粉嫩小泬久久久久久久| 欧美精品一本久久男人的天堂| 欧美一级久久久久久久大| 久久久无码人妻精品无码| 久久天天躁狠狠躁夜夜av浪潮| 久久久久久久亚洲Av无码|