• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            elva

            Socket I/O模型全接觸

            本文簡單介紹了當前Windows支持的各種Socket I/O模型,如果你發現其中存在什么錯誤請務必賜教。

                一:select模型
                二:WSAAsyncSelect模型
                三:WSAEventSelect模型
                四:Overlapped I/O 事件通知模型
                五:Overlapped I/O 完成例程模型
                六:IOCP模型

                老陳有一個在外地工作的女兒,不能經?;貋恚详惡退ㄟ^信件聯系。他們的信會被郵遞員投遞到他們的信箱里。
                這和Socket模型非常類似。下面我就以老陳接收信件為例講解Socket I/O模型~~~

            一:select模型

            老陳非常想看到女兒的信。以至于他每隔10分鐘就下樓檢查信箱,看是否有女兒的信~~~~~
            在這種情況下,“下樓檢查信箱”然后回到樓上耽誤了老陳太多的時間,以至于老陳無法做其他工作。
            select模型和老陳的這種情況非常相似:周而復始地去檢查......如果有數據......接收/發送.......

            使用線程來select應該是通用的做法:


            procedure TListenThread.Execute;
            var
            addr     : TSockAddrIn;
            fd_read : TFDSet;
            timeout : TTimeVal;
            ASock,
            MainSock : TSocket;
            len, i   : Integer;
            begin
            MainSock := socket( AF_INET, SOCK_STREAM, IPPROTO_TCP );
            addr.sin_family := AF_INET;
            addr.sin_port := htons(5678);
            addr.sin_addr.S_addr := htonl(INADDR_ANY);
            bind( MainSock, @addr, sizeof(addr) );
            listen( MainSock, 5 );

            while (not Terminated) do
            begin
                FD_ZERO( fd_read );
                FD_SET( MainSock, fd_read );
                timeout.tv_sec := 0;
                timeout.tv_usec := 500;
                if select( 0, @fd_read, nil, nil, @timeout ) > 0 then {//至少有1個等待Accept的connection}
                begin
                  if FD_ISSET( MainSock, fd_read ) then
                  begin
                    for i:=0 to fd_read.fd_count-1 do {//注意,fd_count <= 64,也就是說select只能同時管理最多64個連接}
                    begin
                      len := sizeof(addr);
                      ASock := accept( MainSock, addr, len );
                      if ASock <> INVALID_SOCKET then
                          .{//為ASock創建一個新的線程,在新的線程中再不停地select}
                    end;
                  end;
                end;
            end; {//while (not self.Terminated)}

            shutdown( MainSock, SD_BOTH );
            closesocket( MainSock );
            end;

             

            二:WSAAsyncSelect模型

            后來,老陳使用了微軟公司的新式信箱。這種信箱非常先進,一旦信箱里有新的信件,蓋茨就會給老陳打電話:喂,大爺,你有新的信件了!從此,老陳再也不必頻繁上下樓檢查信箱了,牙也不疼了,你瞅準了,藍天......不是,微軟~~~~~~~~
            微軟提供的WSAAsyncSelect模型就是這個意思。

            WSAAsyncSelect模型是Windows下最簡單易用的一種Socket I/O模型。使用這種模型時,Windows會把網絡事件以消息的形勢通知應用程序。
            首先定義一個消息標示常量:
            const WM_SOCKET = WM_USER + 55;
            再在主Form的private域添加一個處理此消息的函數聲明:


            private
            procedure WMSocket(var Msg: TMessage); message WM_SOCKET;
            {然后就可以使用WSAAsyncSelect了:}


            Code
            var
            addr : TSockAddr;
            sock : TSocket;

            sock := socket( AF_INET, SOCK_STREAM, IPPROTO_TCP );
            addr.sin_family := AF_INET;
            addr.sin_port := htons(5678);
            addr.sin_addr.S_addr := htonl(INADDR_ANY);
            bind( m_sock, @addr, sizeof(SOCKADDR) );

            WSAAsyncSelect( m_sock, Handle, WM_SOCKET, FD_ACCEPT or FD_CLOSE );

            listen( m_sock, 5 );
              
            應用程序可以對收到WM_SOCKET消息進行分析,判斷是哪一個socket產生了網絡事件以及事件類型:


            procedure TfmMain.WMSocket(var Msg: TMessage);
            var
            sock    : TSocket;
            addr    : TSockAddrIn;
            addrlen : Integer;
            buf     : Array [0..4095] of Char;
            begin
            {//Msg的WParam是產生了網絡事件的socket句柄,LParam則包含了事件類型}
            case WSAGetSelectEvent( Msg.LParam ) of
                FD_ACCEPT :
                begin
                  addrlen := sizeof(addr);
                  sock := accept( Msg.WParam, addr, addrlen );
                  if sock <> INVALID_SOCKET then
                     WSAAsyncSelect( sock, Handle, WM_SOCKET, FD_READ or FD_WRITE or FD_CLOSE );
                end;

                FD_CLOSE : closesocket( Msg.WParam );
                FD_READ : recv( Msg.WParam, buf[0], 4096, 0 );
                FD_WRITE : ;
            end;
            end;

            三:WSAEventSelect模型

            后來,微軟的信箱非常暢銷,購買微軟信箱的人以百萬計數......以至于蓋茨每天24小時給客戶打電話,累得腰酸背痛,喝蟻力神都不好使~~~~~~
            微軟改進了他們的信箱:在客戶的家中添加一個附加裝置,這個裝置會監視客戶的信箱,每當新的信件來臨,此裝置會發出“新信件到達”聲,提醒老陳去收信。蓋茨終于可以睡覺了。

            同樣要使用線程:


            procedure TListenThread.Execute;
            var
            hEvent : WSAEvent;
            ret    : Integer;
            ne     : TWSANetworkEvents;
            sock   : TSocket;
            adr    : TSockAddrIn;
            sMsg   : String;
            Index,
            EventTotal : DWORD;
            EventArray : Array [0..WSA_MAXIMUM_WAIT_EVENTS-1] of WSAEVENT;
            begin
               socket bind
            hEvent := WSACreateEvent();
            WSAEventSelect( ListenSock, hEvent, FD_ACCEPT or FD_CLOSE );
               listen

            while ( not Terminated ) do
            begin
                Index := WSAWaitForMultipleEvents( EventTotal, @EventArray[0], FALSE, WSA_INFINITE, FALSE );
                FillChar( ne, sizeof(ne), 0 );
                WSAEnumNetworkEvents( SockArray[Index-WSA_WAIT_EVENT_0], EventArray[Index-WSA_WAIT_EVENT_0], @ne );

                if ( ne.lNetworkEvents and FD_ACCEPT ) > 0 then
                begin
                  if ne.iErrorCode[FD_ACCEPT_BIT] <> 0 then
                     continue;

                  ret := sizeof(adr);
                  sock := accept( SockArray[Index-WSA_WAIT_EVENT_0], adr, ret );
                  if EventTotal > WSA_MAXIMUM_WAIT_EVENTS-1 then{//這里WSA_MAXIMUM_WAIT_EVENTS同樣是64}
                  begin
                    closesocket( sock );
                    continue;
                  end;

                  hEvent := WSACreateEvent();
                  WSAEventSelect( sock, hEvent, FD_READ or FD_WRITE or FD_CLOSE );
                  SockArray[EventTotal] := sock;
                  EventArray[EventTotal] := hEvent;
                  Inc( EventTotal );
                end;

                if ( ne.lNetworkEvents and FD_READ ) > 0 then
                begin
                  if ne.iErrorCode[FD_READ_BIT] <> 0 then
                     continue;
                  FillChar( RecvBuf[0], PACK_SIZE_RECEIVE, 0 );
                  ret := recv( SockArray[Index-WSA_WAIT_EVENT_0], RecvBuf[0], PACK_SIZE_RECEIVE, 0 );
                  
                end;
            end;
            end;

            四:Overlapped I/O 事件通知模型

            后來,微軟通過調查發現,老陳不喜歡上下樓收發信件,因為上下樓其實很浪費時間。于是微軟再次改進他們的信箱。新式的信箱采用了更為先進的技術,只要用戶告訴微軟自己的家在幾樓幾號,新式信箱會把信件直接傳送到用戶的家中,然后告訴用戶,你的信件已經放到你的家中了!老陳很高興,因為他不必再親自收發信件了!

            Overlapped I/O 事件通知模型和WSAEventSelect模型在實現上非常相似,主要區別在“Overlapped”,Overlapped模型是讓應用程序使用重疊數據結構(WSAOVERLAPPED),一次投遞一個或多個Winsock I/O請求。這些提交的請求完成后,應用程序會收到通知。什么意思呢?就是說,如果你想從socket上接收數據,只需要告訴系統,由系統為你接收數據,而你需要做的只是為系統提供一個緩沖區~~~~~
            Listen線程和WSAEventSelect模型一模一樣,Recv/Send線程則完全不同:


            Code
            procedure TOverlapThread.Execute;
            var
            dwTemp : DWORD;
            ret    : Integer;
            Index : DWORD;
            begin

            while ( not Terminated ) do
            begin
                Index := WSAWaitForMultipleEvents( FLinks.Count, @FLinks.Events[0], FALSE, RECV_TIME_OUT, FALSE );
                Dec( Index, WSA_WAIT_EVENT_0 );
                if Index > WSA_MAXIMUM_WAIT_EVENTS-1 then {//超時或者其他錯誤}
                   continue;

                WSAResetEvent( FLinks.Events[Index] );
                WSAGetOverlappedResult( FLinks.Sockets[Index], FLinks.pOverlaps[Index], @dwTemp, FALSE, FLinks.pdwFlags[Index]^ );

                if dwTemp = 0 then {//連接已經關閉}
                begin
                 
                  continue;
                end else
                begin
                  fmMain.ListBox1.Items.Add( FLinks.pBufs[Index]^.buf );
                end;

                {//初始化緩沖區}
                FLinks.pdwFlags[Index]^ := 0;
                FillChar( FLinks.pOverlaps[Index]^, sizeof(WSAOVERLAPPED), 0 );
                FLinks.pOverlaps[Index]^.hEvent := FLinks.Events[Index];
                FillChar( FLinks.pBufs[Index]^.buf^, BUFFER_SIZE, 0 );

                {//遞一個接收數據請求}
                WSARecv( FLinks.Sockets[Index], FLinks.pBufs[Index], 1, FLinks.pdwRecvd[Index]^, FLinks.pdwFlags[Index]^, FLinks.pOverlaps[Index], nil );
            end;
            end;

            五:Overlapped I/O 完成例程模型

            老陳接收到新的信件后,一般的程序是:打開信封----掏出信紙----閱讀信件----回復信件......為了進一步減輕用戶負擔,微軟又開發了一種新的技術:用戶只要告訴微軟對信件的操作步驟,微軟信箱將按照這些步驟去處理信件,不再需要用戶親自拆信/閱讀/回復了!老陳終于過上了小資生活!

            Overlapped I/O 完成例程要求用戶提供一個回調函數,發生新的網絡事件的時候系統將執行這個函數:


            procedure WorkerRoutine( const dwError, cbTransferred : DWORD; const
                      lpOverlapped : LPWSAOVERLAPPED; const dwFlags : DWORD ); stdcall;

            然后告訴系統用WorkerRoutine函數處理接收到的數據:
            WSARecv( m_socket, @FBuf, 1, dwTemp, dwFlag, @m_overlap, WorkerRoutine );
            然后......沒有什么然后了,系統什么都給你做了!微軟真實體貼!


            Code
            while ( not Terminated ) do{//這就是一個Recv/Send線程要做的事情什么都不用做?。。?!}
            begin
            if SleepEx( RECV_TIME_OUT, True ) = WAIT_IO_COMPLETION then {//}
            begin
                ;
            end else
            begin
                continue;
            end;
            end;

             

            六:IOCP模型

            微軟信箱似乎很完美,老陳也很滿意。但是在一些大公司情況卻完全不同!這些大公司有數以萬計的信箱,每秒鐘都有數以百計的信件需要處理,以至于微軟信箱經常因超負荷運轉而崩潰!需要重新啟動!微軟不得不使出殺手锏......
            微軟給每個大公司派了一名名叫“Completion Port”的超級機器人,讓這個機器人去處理那些信件!

            “Windows NT小組注意到這些應用程序的性能沒有預料的那么高。特別的,處理很多同時的客戶請求意味著很多線程并發地運行在系統中。因為所有這些線程都是可運行的[沒有被掛起和等待發生什么事],Microsoft意識到NT內核花費了太多的時間來轉換運行線程的上下文[Context],線程就沒有得到很多CPU時間來做它們的工作。大家可能也都感覺到并行模型的瓶頸在于它為每一個客戶請求都創建了一個新線程。創建線程比起創建進程開銷要小,但也遠不是沒有開銷的。我們不妨設想一下:如果事先開好N個線程,讓它們在那hold[堵塞],然后可以將所有用戶的請求都投遞到一個消息隊列中去。然后那N個線程逐一從消息隊列中去取出消息并加以處理。就可以避免針對每一個用戶請求都開線程。不僅減少了線程的資源,也提高了線程的利用率。理論上很不錯,你想我等泛泛之輩都能想出來的問題,Microsoft又怎會沒有考慮到呢?”-----摘自nonocast的《理解I/O Completion Port》

            先看一下IOCP模型的實現:


            Code
            {創建一個完成端口}
            FCompletPort := CreateIoCompletionPort( INVALID_HANDLE_VALUE, 0,0,0 );

            {接受遠程連接,并把這個連接的socket句柄綁定到剛才創建的IOCP上}
            AConnect := accept( FListenSock, addr, len);
            CreateIoCompletionPort( AConnect, FCompletPort, nil, 0 );

            {創建CPU數*2 + 2個線程}
            for i:=1 to si.dwNumberOfProcessors*2+2 do
            begin
            AThread := TRecvSendThread.Create( false );
            AThread.CompletPort := FCompletPort;{//告訴這個線程,你要去這個IOCP去訪問數據}
            end;

            OK,就這么簡單,我們要做的就是建立一個IOCP,把遠程連接的socket句柄綁定到剛才創建的IOCP上,最后創建n個線程,并告訴這n個線程到這個IOCP上去訪問數據就可以了。

            再看一下TRecvSendThread線程都干些什么:


            Code
            procedure TRecvSendThread.Execute;
            var

            begin
            while (not self.Terminated) do
            begin
                {查詢IOCP狀態(數據讀寫操作是否完成)}
                GetQueuedCompletionStatus( CompletPort, BytesTransd, CompletKey, POVERLAPPED(pPerIoDat), TIME_OUT );

                if BytesTransd <> 0 then
                   .;{//數據讀寫操作完成}

                {//再投遞一個讀數據請求}
                WSARecv( CompletKey, @(pPerIoDat^.BufData), 1, BytesRecv, Flags, @(pPerIoDat^.Overlap), nil );
            end;
            end;

            讀寫線程只是簡單地檢查IOCP是否完成了我們投遞的讀寫操作,如果完成了則再投遞一個新的讀寫請求。
            應該注意到,我們創建的所有TRecvSendThread都在訪問同一個IOCP(因為我們只創建了一個IOCP),并且我們沒有使用臨界區!難道不會產生沖突嗎?不用考慮同步問題嗎?
            呵呵,這正是IOCP的奧妙所在。IOCP不是一個普通的對象,不需要考慮線程安全問題。它會自動調配訪問它的線程:如果某個socket上有一個線程A正在訪問,那么線程B的訪問請求會被分配到另外一個socket。這一切都是由系統自動調配的,我們無需過問。

            呵呵,終于寫完了,好累......以上所有的源代碼可以從這里看到:
            http://community.csdn.net/Expert/topic/3844/3844679.xml?temp=5.836123E-02
            不過代碼寫的很簡陋,請多包涵!

            轉自:http://blog.csdn.net/flyinwuhan/

            聲明:除CSDN外的任何媒體轉載必須注明作者以及“轉載自CSDN”。

             

            posted on 2010-10-29 17:12 葉子 閱讀(652) 評論(0)  編輯 收藏 引用 所屬分類: 網絡編程

            国产成年无码久久久久毛片| 久久天天躁狠狠躁夜夜avapp| 久久久青草青青亚洲国产免观| 国产亚洲色婷婷久久99精品| 粉嫩小泬无遮挡久久久久久| 久久99精品国产麻豆婷婷| 国产精品美女久久福利网站| 久久热这里只有精品在线观看| 国产成人精品综合久久久久| 精品久久久久久成人AV| 国内精品久久国产大陆| 性做久久久久久久久老女人| 久久久久亚洲AV无码网站| 国产精品欧美久久久久无广告| 2020国产成人久久精品| AV无码久久久久不卡网站下载| 模特私拍国产精品久久| jizzjizz国产精品久久| 久久天天躁狠狠躁夜夜不卡| 大美女久久久久久j久久| 欧美丰满熟妇BBB久久久| 久久精品国产一区二区三区不卡 | 国产精品视频久久| 热99RE久久精品这里都是精品免费| 久久亚洲欧美日本精品| 久久久久久精品成人免费图片| 国产成人精品久久免费动漫| 人妻系列无码专区久久五月天| 2020最新久久久视精品爱| 99久久国语露脸精品国产| 久久精品国产AV一区二区三区| 亚洲欧洲久久av| 久久乐国产精品亚洲综合| 久久综合日本熟妇| 国产午夜福利精品久久| 99久久国产综合精品网成人影院| 97久久精品午夜一区二区| 国产精品久久久久9999| 精品久久久久久久| 狠狠色伊人久久精品综合网| 麻豆AV一区二区三区久久|