青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

Error

C++博客 首頁 新隨筆 聯系 聚合 管理
  217 Posts :: 61 Stories :: 32 Comments :: 0 Trackbacks
相關UML:
網絡引擎整體結構:


SocketItem細節:



先來看幾個底層結構:
//重疊結構類
class COverLapped
{
    
//變量定義
public:
    WSABUF                            m_WSABuffer;                        
//數據指針
    OVERLAPPED                        m_OverLapped;                        //重疊結構
    const enOperationType            m_OperationType;                    //操作類型

    
//函數定義
public:
    
//構造函數
    COverLapped(enOperationType OperationType);
    
//析構函數
    virtual ~COverLapped();

    
//信息函數
public:
    
//獲取類型
    enOperationType GetOperationType() { return m_OperationType; }
};

//接收重疊結構
class COverLappedSend : public COverLapped
{
    
//數據變量
public:
    BYTE                            m_cbBuffer[SOCKET_BUFFER];            
//數據緩沖

    
//函數定義
public:
    
//構造函數
    COverLappedSend();
    
//析構函數
    virtual ~COverLappedSend();
};

//重疊結構模板
template <enOperationType OperationType> class CATLOverLapped : public COverLapped
{
    
//函數定義
public:
    
//構造函數
    CATLOverLapped() : COverLapped(OperationType) {}
    
//析構函數
    virtual ~CATLOverLapped() {}
};


先復習下基礎,Windows下的網絡模型有很多種,這里只拿出三種來說:
EventSelect:基于信號機制,以socket為單位綁定信號量,當socket上有指定的事件發生時激發信號,然后查詢事件處理事件重設事件,繼續在信號量上等待。其實也是在伯克利select模型上的換不換藥的加強。
OverLapped:分兩種工作模式完成回調,和完成事件。重疊IO監視每次操作,每次IO都綁定一個重疊對象,當操作完成以后激發信號或者調用回調。
IOCP:和overlapped類似,不過結果經過了Windows的預處理以隊列的形式掛在完成端口上

根據上面的復習,可以得出一個結論,IOCP環境中每一次IO操作都需要一個重疊結構,那么一個CServerSocketItem至少需要如些這些東東:
他要接受數據,所以必須有一個接受數據的 OverLapped
它要發送數據,說以必須有一個發送數據的 OverLapped
netFox對OverLapped做了使用了類似池的的管理手段,他的Send都是不等待上一次完成就直接投遞下一個請求了,,,這是很操蛋的做法,,,

然后繼續復習下基礎:
在EventSelect模型中獲處理件類型流程是這樣:
event受信,使用::WSAEnumNetworkEvents查詢和這個event關聯的socket發生的事件,根據查詢到的事件類型去處理事件
在以每一次IO為查詢對象重疊IO、IOCP模型中是這樣:
使用GetOverlappedResult 或者 GetQueuedCompletionStatus然后根據重疊結構去查詢投遞的是什么類型的操作,然后找到關聯的socket去操作,,,

這樣必然要給OverLapped做個擴展,提供一種通過OverLapped查詢操作類型和socket的能力。
通過分析代碼,netFox關聯socket是通過在創建完成端口的時候綁定SocketItem對象指針完成的,操作類型是通過對OverLapped結構加強完成的。
通過GetQueuedCompletionStatus獲取到完成OverLapped以后使用一個宏:
(這是COverLapped類型)  pSocketLapped=CONTAINING_RECORD(pOverLapped,COverLapped,m_OverLapped);
來獲取包裝后的OverLapped,然后獲取操作類型,然后執行具體操作。
其實宏的展開如下:
(COverLapped*)((BYTE*)pOverLapped - (COverLapped*)(0)->m_OverLapped);
pOverLapped是獲取到的某個COverLapped中的成員變量,(COverLapped*)(0)->m_OverLapped是到在COverLapped中的偏移,((BYTE*)pOverLapped - (COverLapped*)(0)->m_OverLapped) 就是根據pOverLapped推算出來的包含地址為pOverLapped作為成員變量m_OverLapped的COverLapped對象的地址。
然后就分別調用:

//發送完成函數
bool CServerSocketItem::OnSendCompleted(COverLappedSend * pOverLappedSend, DWORD dwThancferred);

//接收完成函數
bool CServerSocketItem::OnRecvCompleted(COverLappedRecv * pOverLappedRecv, DWORD dwThancferred);

為毛要區分Send OverLapped 和 Recv OverLapped呢,,,
應為投遞一次Send不一定是瞬間完成的,在處理的過程中存儲數據的內存應該是鎖定的,也就是不允許修改的,,,所以OverLapped應該自己管理內存。
而recv應該也是需要有一片內存直接接受數據的,很奇怪netFox沒有提供,,,

recv居然是在投遞接受請求的時候給了一個空的buffer,然后在完成回調中自己再次調用recv方法接受數據。
接受有關的成員變量如下:
    //狀態變量
protected:
    
bool                            m_bNotify;                            //通知標志
    bool                            m_bRecvIng;                            //接收標志
    bool                            m_bCloseIng;                        //關閉標志
    bool                            m_bAllowBatch;                        //接受群發
    WORD                            m_wRecvSize;                        //接收長度
    BYTE                            m_cbRecvBuf[SOCKET_BUFFER*5];        //接收緩沖
int iRetCode=recv(m_hSocket,(char *)m_cbRecvBuf+m_wRecvSize,sizeof(m_cbRecvBuf)-m_wRecvSize,0);
難道這么蠢的做法只是為了躲開分包算法?
具體的看看接受代碼:
//接收完成函數
bool CServerSocketItem::OnRecvCompleted(COverLappedRecv * pOverLappedRecv, DWORD dwThancferred)
{
    
//效驗數據
    ASSERT(m_bRecvIng==true);

    
//設置變量
    m_bRecvIng=false;
    m_dwRecvTickCount
=GetTickCount();

    
//判斷關閉
    if (m_hSocket==INVALID_SOCKET)
    {
        CloseSocket(m_wRountID);
        
return true;
    }

    
//接收數據
    int iRetCode=recv(m_hSocket,(char *)m_cbRecvBuf+m_wRecvSize,sizeof(m_cbRecvBuf)-m_wRecvSize,0);
    
if (iRetCode<=0)
    {
        CloseSocket(m_wRountID);
        
return true;
    }

    
//接收完成
    m_wRecvSize+=iRetCode;
    BYTE cbBuffer[SOCKET_BUFFER];
    CMD_Head 
* pHead=(CMD_Head *)m_cbRecvBuf;

    
//處理數據
    try
    {
        
while (m_wRecvSize>=sizeof(CMD_Head))
        {
            
//效驗數據
            WORD wPacketSize=pHead->CmdInfo.wDataSize;
            
if (wPacketSize>SOCKET_BUFFER) throw TEXT("數據包超長");
            
if (wPacketSize<sizeof(CMD_Head)) throw TEXT("數據包非法");
            
if (pHead->CmdInfo.cbMessageVer!=SOCKET_VER) throw TEXT("數據包版本錯誤");
            
if (m_wRecvSize<wPacketSize) break;

            
//提取數據
            CopyMemory(cbBuffer,m_cbRecvBuf,wPacketSize);
            WORD wRealySize
=CrevasseBuffer(cbBuffer,wPacketSize);
            ASSERT(wRealySize
>=sizeof(CMD_Head));
            m_dwRecvPacketCount
++;

            
//解釋數據
            WORD wDataSize=wRealySize-sizeof(CMD_Head);
            
void * pDataBuffer=cbBuffer+sizeof(CMD_Head);
            CMD_Command Command
=((CMD_Head *)cbBuffer)->CommandInfo;

            
//內核命令
            if (Command.wMainCmdID==MDM_KN_COMMAND)
            {
                
switch (Command.wSubCmdID)
                {
                
case SUB_KN_DETECT_SOCKET:    //網絡檢測
                    {
                        
break;
                    }
                
defaultthrow TEXT("非法命令碼");
                }
            }
            
else 
            {
                
//消息處理
                m_pIServerSocketItemSink->OnSocketReadEvent(Command,pDataBuffer,wDataSize,this);            
            }

            
//刪除緩存數據
            m_wRecvSize-=wPacketSize;
            MoveMemory(m_cbRecvBuf,m_cbRecvBuf
+wPacketSize,m_wRecvSize);
        }
    }
    
catch ()
    { 
        CloseSocket(m_wRountID);
        
return false;
    }

    
return RecvData();
}

這是還是有分包算法的,總的來說接受流程如下:
直接使用recv把數據接受到SocketItem的緩沖區中,當長度大于CMD_HEAD之后,進入處理階段,處理head數據各種判斷,然后將數據扔出去,再調整緩沖區,,,

簡單的說:
Send完全不考慮同步問題,不管一個勁的網隊列投遞Send請求,,,這邊處理隊列也是直接Send完事,完全不考慮上一次是否send成功,,,
Recv更是莫名其妙的使用完成端口繞一圈還回到recv直接接受了,,,

很狗血的做法,,,

更正下我自己狗血的不理解:
如果一個服務器提交了非常多的重疊的receive在每一個連接上,那么限制會隨著連接數的增長而變化。如果一個服務器能夠預先估計可能會產生的最大并發連接數,服務器可以投遞一個使用零緩沖區的receive在每一個連接上。因為當你提交操作沒有緩沖區時,那么也不會存在內存被鎖定了。使用這種辦法后,當你的receive操作事件完成返回時,該socket底層緩沖區的數據會原封不動的還在其中而沒有被讀取到receive操作的緩沖區來。此時,服務器可以簡單的調用非阻塞式的recv將存在socket緩沖區中的數據全部讀出來,一直到recv返回 WSAEWOULDBLOCK 為止。 這種設計非常適合那些可以犧牲數據吞吐量而換取巨大 并發連接數的服務器。當然,你也需要意識到如何讓客戶端的行為盡量避免對服務器造成影響。在上一個例子中,當一個零緩沖區的receive操作被返回后使 用一個非阻塞的recv去讀取socket緩沖區中的數據,如果服務器此時可預計到將會有爆發的數據流,那么可以考慮此時投遞一個或者多個receive 來取代非阻塞的recv來進行數據接收。(這比你使用1個缺省的8K緩沖區來接收要好的多。)

源碼中提供了一個簡單實用的解決WSAENOBUF錯誤的辦法。我們執行了一個零字節緩沖的異步WSARead(...)(參見 OnZeroByteRead(..))。當這個請求完成,我們知道在TCP/IP棧中有數據,然后我們通過執行幾個有MAXIMUMPACKAGESIZE緩沖的異步WSARead(...)去讀,解決了WSAENOBUFS問題。但是這種解決方法降低了服務器的吞吐量。

總結:

解決方法一:

投遞使用空緩沖區的 receive操作,當操作返回后,使用非阻塞的recv來進行真實數據的讀取。因此在完成端口的每一個連接中需要使用一個循環的操作來不斷的來提交空緩沖區的receive操作。

解決方法二:

在投遞幾個普通含有緩沖區的receive操作后,進接著開始循環投遞一個空緩沖區的receive操作。這樣保證它們按照投遞順序依次返回,這樣我們就總能對被鎖定的內存進行解鎖。



///////////
如果一個服務器同時連接了許多客戶端, 對每個客戶端又調用了許多 WSARecv, 那么大量的內存將會被鎖定到非分頁內存池. 鎖定這些內存時是按照頁面邊界來鎖定的, 也就是說即使你 WSARecv 的緩存大小是 1 字節, 被鎖定的內存也將會是 4k. 非分頁內存池是由整個系統共用的, 如果用完的話最壞的情況就是系統崩潰. 一個解決辦法是, 使用大小為 0 的緩沖區調用 WSARecv. 等到調用成功時再換用非阻塞的 recv 接收到來的數據, 直到它返回 WSAEWOULDBLOCK 表明數據已經全部讀完. 在這個過程中沒有任何內存需要被鎖定, 但壞處是效率稍低.
posted on 2011-06-07 23:28 Enic 閱讀(2290) 評論(0)  編輯 收藏 引用 所屬分類: 網狐棋牌源碼分析
青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            在线观看成人网| 亚洲国产高清aⅴ视频| 中国成人黄色视屏| 亚洲国产欧美日韩精品| 毛片一区二区| 亚洲精品一二三区| 亚洲精品婷婷| 国产裸体写真av一区二区| 亚洲欧美日韩国产综合在线| 亚洲一区二区少妇| 国模 一区 二区 三区| 欧美大香线蕉线伊人久久国产精品| 欧美亚洲综合久久| 在线看无码的免费网站| 亚洲国产精品va| 欧美久久久久免费| 久久国产精品高清| 亚洲精品少妇| 亚洲欧美日韩精品| 亚洲高清在线播放| aa国产精品| 尤物九九久久国产精品的分类| 蜜桃久久av| 国产精品福利在线观看网址| 久久精品亚洲乱码伦伦中文| 麻豆av福利av久久av| 亚洲午夜精品一区二区| 午夜亚洲视频| 在线一区二区视频| 久久精品国产一区二区三区免费看 | 欧美成人综合一区| 欧美日韩在线视频一区二区| 久久精品一区四区| 欧美三级韩国三级日本三斤| 久久激情五月激情| 欧美日韩一区二区欧美激情 | 中文日韩电影网站| 欧美在线日韩| 亚洲欧美日韩区| 久久久水蜜桃| 欧美一区二区三区在线播放| 麻豆精品传媒视频| 久久精品日韩一区二区三区| 欧美日韩国产一级片| 久久视频在线视频| 国产农村妇女精品一区二区| 亚洲人精品午夜| 怡红院av一区二区三区| 午夜精品久久| 亚洲午夜精品久久| 欧美激情精品久久久久久免费印度| 久久av一区二区三区| 欧美视频久久| 日韩亚洲视频在线| 日韩一级精品| 欧美大色视频| 亚洲国产精品va| 亚洲承认在线| 久久精品一本| 免费高清在线一区| 一色屋精品亚洲香蕉网站| 亚洲免费视频中文字幕| 亚洲一区黄色| 国产精品久久久对白| 亚洲毛片一区| 亚洲一二三区精品| 欧美日韩不卡| 一区二区高清| 午夜欧美精品久久久久久久| 欧美午夜电影在线| 一区二区三区欧美| 亚洲欧美日韩系列| 国产精品美女久久久免费| 亚洲视频 欧洲视频| 亚洲午夜精品久久久久久app| 欧美精品三级日韩久久| 日韩视频在线观看免费| 亚洲深夜福利网站| 国产精品视频xxx| 欧美一区观看| 欧美1区2区视频| 亚洲精品日韩欧美| 欧美日韩精品免费看 | 牛人盗摄一区二区三区视频| 亚洲成色777777女色窝| 男女av一区三区二区色多| 亚洲第一色在线| 亚洲一区二区动漫| 国产欧美亚洲精品| 久久婷婷久久| 日韩亚洲精品视频| 欧美在线视屏| 亚洲福利视频在线| 欧美日韩国语| 久久av在线看| 亚洲欧洲另类| 欧美一区激情| 亚洲人成毛片在线播放| 国产精品久久7| 久久视频在线视频| 一区二区三区四区五区视频| 久久精品国产99| 日韩视频中文字幕| 国产欧美日韩在线视频| 免费成人高清在线视频| 亚洲图片欧洲图片av| 另类人畜视频在线| 亚洲——在线| 亚洲高清中文字幕| 国产精品五月天| 欧美第一黄色网| 久久国产一区二区三区| 日韩一级在线| 欧美国产精品va在线观看| 午夜天堂精品久久久久| 亚洲日本成人| 国产一区二区精品久久91| 欧美日本一区二区视频在线观看| 欧美尤物巨大精品爽| 日韩亚洲综合在线| 欧美国产日韩xxxxx| 久久黄色网页| 亚洲女女女同性video| 亚洲精品一区二区三| 国产一二精品视频| 国产精品中文字幕欧美| 欧美视频在线看| 欧美激情久久久| 久久综合色影院| 久久精品综合| 久久成人免费网| 先锋影音国产精品| 亚洲免费在线播放| 亚洲午夜视频在线| 亚洲精品美女免费| 亚洲人成绝费网站色www| 嫩草影视亚洲| 老色鬼精品视频在线观看播放| 欧美一区二区在线| 欧美一区免费视频| 久久国产免费| 久久久www| 久久婷婷国产麻豆91天堂| 久久激情网站| 久久精品亚洲| 蜜桃久久精品乱码一区二区| 久久人人九九| 蜜桃av一区二区| 欧美激情按摩| 亚洲国产精品专区久久| 亚洲国产精品123| 亚洲人成在线观看| 亚洲巨乳在线| 亚洲一区二区精品在线| 亚洲欧美在线看| 久久www成人_看片免费不卡| 久久av在线| 免费h精品视频在线播放| 麻豆国产精品777777在线| 欧美成人一区二免费视频软件| 欧美国产激情| 国产精品久久久一区麻豆最新章节 | 亚洲天堂成人| 欧美在线视频不卡| 久久影院午夜片一区| 欧美成人一区二区在线 | 午夜精品视频在线观看| 久久精品国产999大香线蕉| 久久伊人亚洲| 欧美日在线观看| 国产区亚洲区欧美区| 亚洲大胆女人| 一区二区三区视频在线观看 | 国产自产精品| 亚洲精品视频免费| 性娇小13――14欧美| 久久午夜电影网| 日韩一二在线观看| 久久精品国产免费| 欧美日韩亚洲一区二区三区在线观看 | 久久精品成人欧美大片古装| 美女在线一区二区| 国产精品久久久久久久电影| 一区二区在线观看av| 中文av一区特黄| 美国成人毛片| 中文国产成人精品久久一| 久久久久久**毛片大全| 欧美日韩一区二区精品| 伊人狠狠色j香婷婷综合| 亚洲一区日韩| 欧美国产三区| 欧美一区二区三区在| 欧美日韩在线不卡| 在线免费不卡视频| 欧美专区第一页| 日韩午夜电影| 每日更新成人在线视频| 国产亚洲精品bv在线观看| 亚洲最快最全在线视频|