• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

               C++ 技術中心

               :: 首頁 :: 聯系 ::  :: 管理
              160 Posts :: 0 Stories :: 87 Comments :: 0 Trackbacks

            公告

            鄭重聲明:本BLOG所發表的原創文章,作者保留一切權利。必須經過作者本人同意后方可轉載,并注名作者(天空)和出處(CppBlog.com)。作者Email:coder@luckcoder.com

            留言簿(27)

            搜索

            •  

            最新隨筆

            最新評論

            評論排行榜

            網絡游戲服務器端一些注意事項

             

            一:IOCP和Epoll之間的異同。
            異:
            1:IOCP是WINDOWS系統下使用。Epoll是Linux系統下使用。
            2:IOCP是IO操作完畢之后,通過Get函數獲得一個完成的事件通知。
            Epoll是當你希望進行一個IO操作時,向Epoll查詢是否可讀或者可寫,若處于可讀或可寫狀態后,Epoll會通過epoll_wait進行通知。
            3:IOCP封裝了異步的消息事件的通知機制,同時封裝了部分IO操作。但Epoll僅僅封裝了一個異步事件的通知機制,并不負責IO讀寫操作。Epoll保持了事件通知和IO操作間的獨立性,更加簡單靈活。
            4: 基于上面的描述,我們可以知道Epoll不負責IO操作,所以它只告訴你當前可讀可寫了,并且將協議讀寫緩沖填充,由用戶去讀寫控制,此時我們可以做出額 外的許多操作。IOCP則直接將IO通道里的讀寫操作都做完了才通知用戶,當IO通道里發生了堵塞等狀況我們是無法控制的。

            同:
            1:它們都是異步的事件驅動的網絡模型。
            2:它們都可以向底層進行指針數據傳遞,當返回事件時,除可通知事件類型外,還可以通知事件相關數據。

            二:描述一下IOCP:
            扯遠點。首先傳統服務器的網絡IO流程如下:
            接到一個客戶端連接->創建一個線程負責這個連接的IO操作->持續對新線程進行數據處理->全部數據處理完畢->終止線程。
            但是這樣的設計代價是:
            1:每個連接創建一個線程,將導致過多的線程。
            2:維護線程所消耗的堆棧內存過大。
            3:操作系統創建和銷毀線程過大。
            4:線程之間切換的上下文代價過大。
            此時我們可以考慮使用線程池解決其中3和4的問題。這種傳統的服務器網絡結構稱之為會話模型。
            后來我們為防止大量線程的維護,創建了I/O模型,它被希望要求可以:
            1:允許一個線程在不同時刻給多個客戶端進行服務。
            2:允許一個客戶端在不同時間被多個線程服務。
            這樣做的話,我們的線程則會大幅度減少,這就要求以下兩點:
            1:客戶端狀態的分離,之前會話模式我們可以通過線程狀態得知客戶端狀態,但現在客戶端狀態要通過其他方式獲取。
            2:I/O請求的分離。一個線程不再服務于一個客戶端會話,則要求客戶端對這個線程提交I/O處理請求。
            那么就產生了這樣一個模式,分為兩部分:
            1:會話狀態管理模塊。它負責接收到一個客戶端連接,就創建一個會話狀態。
            2:當會話狀態發生改變,例如斷掉連接,接收到網絡消息,就發送一個I/O請求給 I/O工作模塊進行處理。
            3:I/O工作模塊接收到一個I/O請求后,從線程池里喚醒一個工作線程,讓該工作線程處理這個I/O請求,處理完畢后,該工作線程繼續掛起。
            上面的做法,則將網絡連接 和I/O工作線程分離為兩個部分,相互通訊僅依靠 I/O請求。
            此時可知有以下一些建議:
            1:在進行I/O請求處理的工作線程是被喚醒的工作線程,一個CPU對應一個的話,可以最大化利用CPU。所以 活躍線程的個數 建議等于 硬件CPU個數。
            2:工作線程我們開始創建了線程池,免除創建和銷毀線程的代價。因為線程是對I/O進行操作的,且一一對應,那么當I/O全部并行時,工作線程必須滿足I/O并行操作需求,所以 線程池內最大工作線程個數 建議大于或者等于 I/O并行個數。
            3:但是我們可知CPU個數又限制了活躍的線程個數,那么線程池過大意義很低,所以按常規建議 線程池大小 等于 CPU個數*2 左右為佳。例如,8核服務器建議創建16個工作線程的線程池。
            上面描述的依然是I/O模型并非IOCP,那么IOCP是什么呢,全稱 IO完成端口。
            它是一種WIN32的網絡I/O模型,既包括了網絡連接部分,也負責了部分的I/O操作功能,用于方便我們控制有并發性的網絡I/O操作。它有如下特點:
            1:它是一個WIN32內核對象,所以無法運行于Linux.
            2:它自己負責維護了工作線程池,同時也負責了I/O通道的內存池。
            3:它自己實現了線程的管理以及I/O請求通知,最小化的做到了線程的上下文切換。
            4:它自己實現了線程的優化調度,提高了CPU和內存緩沖的使用率。
            使用IOCP的基本步驟很簡單:
            1:創建IOCP對象,由它負責管理多個Socket和I/O請求。CreateIoCompletionPort需要將IOCP對象和IOCP句柄綁定。
            2:創建一個工作線程池,以便Socket發送I/O請求給IOCP對象后,由這些工作線程進行I/O操作。注意,創建這些線程的時候,將這些線程綁定到IOCP上。
            3:創建一個監聽的socket。
            4:輪詢,當接收到了新的連接后,將socket和完成端口進行關聯并且投遞給IOCP一個I/O請求。注意:將Socket和IOCP進行關聯的函數和創建IOCP的函數一樣,都是CreateIoCompletionPort,不過注意傳參必然是不同的。
            5:因為是異步的,我們可以去做其他,等待IOCP將I/O操作完成會回饋我們一個消息,我們再進行處理。
            其中需要知道的是:I/O請求被放在一個I/O請求隊列里面,對,是隊列,LIFO機制。當一個設備處理完I/O請求后,將會將這個完成后的I/O請求丟回IOCP的I/O完成隊列。
            我們應用程序則需要在GetQueuedCompletionStatus去詢問IOCP,該I/O請求是否完成。
            其中有一些特殊的事情要說明一下,我們有時有需要人工的去投遞一些I/O請求,則需要使用PostQueuedCompletionStatus函數向IOCP投遞一個I/O請求到它的請求隊列中。


            三:網絡游戲服務器注意事項,優化措施
            1:IO操作是最大的性能消耗點,注意優化余地很大。
            2:算法數據結構。排序尋路算法的優化。list,vector,hashmap的選擇。大數據尋址,不要考慮遍歷,注意考慮hash.
            3:內存管理。重載new/delete,內存池,對象池的處理。
            4:數據的提前準備和即時計算。
            5:CPU方面的統計監視。邏輯幀計數(應當50ms以內)。
            6:預分配池減少切換和調度,預處理的線程池和連接池等。
            7:基與消息隊列的統計和信息監視框架。
            8:CPU消耗排名:第一AOI同步,第二網絡發包I/O操作,第三技能/BUFF判定計算處理,第四定時器的頻率。
            9:內存泄露檢測,內存訪問越界警惕,內存碎片的回收。
            10:內存消耗排名:第一玩家對象包括其物品,第二網絡數據緩沖。
            11:注意32位和64位的內存容錯。
            12:減少不必要的分包發送。
            13:減少重復包和重拷貝包的代價。
            14:建議分緊急包(立刻發送)和非緊急包(定時輪訓發送)。
            15:帶寬消耗排名:第一移動位置同步,第二對象加載,第三登陸突發包,第四狀態機定時器消息。
            16:客戶端可做部分預判斷機制,部分操作盡量分包發送。
            17:大量玩家聚集時,部分非緊急包進行丟棄。
            18:注意數據庫單表內key數量。
            19:活躍用戶和非活躍用戶的分割存取處理。
            20:控制玩家操作對數據庫的操作頻率。
            21:注意使用共享內存等方式對數據進行安全備份存儲。
            22:注意安全策略,對內網進行IP檢查,對日志進行記錄,任意兩環點內均使用加密算法會更佳。
            23:實時注意對網關,數據庫等接口進行監察控制。
            24:定時器應當存儲一個隊列,而非單向定位。
            25:九宮格數據同步時,不需要直接進行九宮格的同步,對角色加一個AOI,基于圓方碰撞原理,拋棄不必要的格信息,可大幅節省。
            26:客戶端做部分的預測機制,服務器檢測時注意時間戳問題。
            27:定期心跳包,檢查死鏈接是必要的。
            28:為了實現更加負責多種類的AI,AI尋路獨立服務器設計已經是必須的了。其次需要考慮的是聊天,同步。
            29:服務器內網間可以考慮使用UDP。
            30:注意所有內存池,對象池等的動態擴張分配。

            1:以內存換取CPU的理念。
            2:NPC不死理念。(只會disable)
            3:動態擴展理念,負載均衡理念。
            4:客戶端不可信理念。
            5:指針數據,消息均不可信理念。

            posted on 2012-08-07 22:34 C++技術中心 閱讀(1075) 評論(1)  編輯 收藏 引用 所屬分類: 游戲開發

            Feedback

            # re: 網游開發注意事項 2012-09-07 00:00 Jcilz
            有價值的分享,簡潔明了  回復  更多評論
              

            99久久精品国产毛片| 久久久一本精品99久久精品66 | 久久精品国产精品亚洲毛片| 狠狠色综合网站久久久久久久高清| 精品久久久中文字幕人妻 | 久久93精品国产91久久综合| 久久久精品日本一区二区三区| 久久精品免费全国观看国产| 久久无码人妻一区二区三区 | 区亚洲欧美一级久久精品亚洲精品成人网久久久久| 久久国产高清一区二区三区| 久久婷婷五月综合色奶水99啪 | 久久99精品久久久久久齐齐| 久久国内免费视频| 狠狠精品久久久无码中文字幕 | 久久国产精品成人片免费| 国产免费福利体检区久久| 久久久久亚洲AV无码麻豆| 久久综合成人网| 女人香蕉久久**毛片精品| 亚洲国产视频久久| 国产亚洲精久久久久久无码AV| 囯产极品美女高潮无套久久久| 久久精品亚洲福利| 色综合久久综合网观看| 国产成人精品久久免费动漫 | 久久青青色综合| 无码精品久久一区二区三区| 国产精品内射久久久久欢欢| 精品久久久久久综合日本| 狠狠色婷婷久久一区二区三区| 亚洲色婷婷综合久久| 99精品国产免费久久久久久下载| 久久久久黑人强伦姧人妻| 国产精品综合久久第一页| 国产精品VIDEOSSEX久久发布| 青青青青久久精品国产| 久久天堂电影网| 26uuu久久五月天| 久久se精品一区精品二区国产| 国产精品热久久无码av|