青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

posts - 297,  comments - 15,  trackbacks - 0

不久前,我的Socket Client程序遇到了一個非常尷尬的錯誤。它本來應該在一個socket長連接上持續不斷地向服務器發送數據,如果socket連接斷開,那么程序會自動不斷地重試建立連接。
有一天發現程序在不斷嘗試建立連接,但是總是失敗。用netstat查看,這個程序竟然有上千個socket連接處于CLOSE_WAIT狀態,以至于達到了上限,所以無法建立新的socket連接了。
為什么會這樣呢?
它們為什么會都處在CLOSE_WAIT狀態呢?
CLOSE_WAIT狀態的生成原因
首先我們知道,如果我們的Client程序處于CLOSE_WAIT狀態的話,說明套接字是被動關閉的!
因為如果是Server端主動斷掉當前連接的話,那么雙方關閉這個TCP連接共需要四個packet:
       Server ---> FIN ---> Client
       Server <--- ACK <--- Client
    這時候Server端處于FIN_WAIT_2狀態;而我們的程序處于CLOSE_WAIT狀態。
       Server <--- FIN <--- Client
這時Client發送FIN給Server,Client就置為LAST_ACK狀態。
        Server ---> ACK ---> Client
Server回應了ACK,那么Client的套接字才會真正置為CLOSED狀態。

image
 
我們的程序處于CLOSE_WAIT狀態,而不是LAST_ACK狀態,說明還沒有發FIN給Server,那么可能是在關閉連接之前還有許多數據要發送或者其他事要做,導致沒有發這個FIN packet。
 
原因知道了,那么為什么不發FIN包呢,難道會在關閉己方連接前有那么多事情要做嗎?
還有一個問題,為什么有數千個連接都處于這個狀態呢?難道那段時間內,服務器端總是主動拆除我們的連接嗎?
 
不管怎么樣,我們必須防止類似情況再度發生!
首先,我們要防止不斷開辟新的端口,這可以通過設置SO_REUSEADDR套接字選項做到:
重用本地地址和端口
以前我總是一個端口不行,就換一個新的使用,所以導致讓數千個端口進入CLOSE_WAIT狀態。如果下次還發生這種尷尬狀況,我希望加一個限定,只是當前這個端口處于CLOSE_WAIT狀態!
在調用
sockConnected = socket(AF_INET, SOCK_STREAM, 0);
之后,我們要設置該套接字的選項來重用:

/// 允許重用本地地址和端口:
/// 這樣的好處是,即使socket斷了,調用前面的socket函數也不會占用另一個,而是始終就是一個端口
/// 這樣防止socket始終連接不上,那么按照原來的做法,會不斷地換端口。
int nREUSEADDR = 1;
setsockopt(sockConnected,
              SOL_SOCKET,
              SO_REUSEADDR,
              (const char*)&nREUSEADDR,
              sizeof(int));

教科書上是這么說的:這樣,假如服務器關閉或者退出,造成本地地址和端口都處于TIME_WAIT狀態,那么SO_REUSEADDR就顯得非常有用。
也許我們無法避免被凍結在CLOSE_WAIT狀態永遠不出現,但起碼可以保證不會占用新的端口。
其次,我們要設置SO_LINGER套接字選項:
從容關閉還是強行關閉?
LINGER是“拖延”的意思。
默認情況下(Win2k),SO_DONTLINGER套接字選項的是1;SO_LINGER選項是,linger為{l_onoff:0,l_linger:0}。
如果在發送數據的過程中(send()沒有完成,還有數據沒發送)而調用了closesocket(),以前我們一般采取的措施是“從容關閉”:
因為在退出服務或者每次重新建立socket之前,我都會先調用
/// 先將雙向的通訊關閉
     shutdown(sockConnected, SD_BOTH);
     /// 安全起見,每次建立Socket連接前,先把這個舊連接關閉
closesocket(sockConnected);
 
我們這次要這么做:
設置SO_LINGER為零(亦即linger結構中的l_onoff域設為非零,但l_linger為0),便不用擔心closesocket調用進入“鎖定”狀態(等待完成),不論是否有排隊數據未發送或未被確認。這種關閉方式稱為“強行關閉”,因為套接字的虛電路立即被復位,尚未發出的所有數據都會丟失。在遠端的recv()調用都會失敗,并返回WSAECONNRESET錯誤。
在connect成功建立連接之后設置該選項:
linger m_sLinger;
m_sLinger.l_onoff = 1;  // (在closesocket()調用,但是還有數據沒發送完畢的時候容許逗留)
m_sLinger.l_linger = 0; // (容許逗留的時間為0秒)
setsockopt(sockConnected,
         SOL_SOCKET,
         SO_LINGER,
         (const char*)&m_sLinger,
         sizeof(linger));


總結
也許我們避免不了CLOSE_WAIT狀態凍結的再次出現,但我們會使影響降到最小,希望那個重用套接字選項能夠使得下一次重新建立連接時可以把CLOSE_WAIT狀態踢掉。

Feedback
# 回復:[Socket]尷尬的CLOSE_WAIT狀態以及應對策略 2005-01-30 3:41 PM yun.zheng 
回復人: elssann(臭屁蟲和他的開心果) ( ) 信譽:51 2005-01-30 14:00:00 得分: 0


我的意思是:當一方關閉連接后,另外一方沒有檢測到,就導致了CLOSE_WAIT的出現,上次我的一個朋友也是這樣,他寫了一個客戶端和 APACHE連接,當APACHE把連接斷掉后,他沒檢測到,出現了CLOSE_WAIT,后來我叫他檢測了這個地方,他添加了調用 closesocket的代碼后,這個問題就消除了。 
如果你在關閉連接前還是出現CLOSE_WAIT,建議你取消shutdown的調用,直接兩邊closesocket試試。


另外一個問題:

比如這樣的一個例子: 
當客戶端登錄上服務器后,發送身份驗證的請求,服務器收到了數據,對客戶端身份進行驗證,發現密碼錯誤,這時候服務器的一般做法應該是先發送一個密碼錯誤的信息給客戶端,然后把連接斷掉。

如果把 
m_sLinger.l_onoff = 1; 
m_sLinger.l_linger = 0; 
這樣設置后,很多情況下,客戶端根本就收不到密碼錯誤的消息,連接就被斷了。

# 回復:[Socket]尷尬的CLOSE_WAIT狀態以及應對策略 2005-01-30 3:41 PM yun.zheng 
elssann(臭屁蟲和他的開心果) ( ) 信譽:51 2005-01-30 13:24:00 得分: 0


出現CLOSE_WAIT的原因很簡單,就是某一方在網絡連接斷開后,沒有檢測到這個錯誤,沒有執行closesocket,導致了這個狀態的實現,這在TCP/IP協議的狀態變遷圖上可以清楚看到。同時和這個相對應的還有一種叫TIME_WAIT的。

另外,把SOCKET的SO_LINGER設置為0秒拖延(也就是立即關閉)在很多時候是有害處的。 
還有,把端口設置為可復用是一種不安全的網絡編程方法。


# 回復:[Socket]尷尬的CLOSE_WAIT狀態以及應對策略 2005-01-30 3:42 PM yun.zheng 
elssann(臭屁蟲和他的開心果) ( ) 信譽:51 2005-01-30 14:48:00 得分: 0


能不能解釋請看這里 
http://blog.csdn.net/cqq/archive/2005/01/26/269160.aspx

再看這個圖:

http://tech.ccidnet.com/pub/attachment/2004/8/322252.png

斷開連接的時候, 
當發起主動關閉的左邊這方發送一個FIN過去后,右邊被動關閉的這方要回應一個ACK,這個ACK是TCP回應的,而不是應用程序發送的,此時,被動關閉的一方就處于CLOSE_WAIT狀態了。如果此時被動關閉的這一方不再繼續調用closesocket,那么他就不會發送接下來的FIN,導致自己老是處于CLOSE_WAIT。只有被動關閉的這一方調用了closesocket,才會發送一個FIN給主動關閉的這一方,同時也使得自己的狀態變遷為LAST_ACK。


# 回復:[Socket]尷尬的CLOSE_WAIT狀態以及應對策略 2005-01-30 3:54 PM yun.zheng 
elssann(臭屁蟲和他的開心果) ( ) 信譽:51 2005-01-30 15:39:00 得分: 0


比如被動關閉的是客戶端。。。

當對方調用closesocket的時候,你的程序正在

int nRet = recv(s,....); 
if (nRet == SOCKET_ERROR) 

// closesocket(s); 
return FALSE; 
}

很多人就是忘記了那句closesocket,這種代碼太常見了。

我的理解,當主動關閉的一方發送FIN到被動關閉這邊后,被動關閉這邊的TCP馬上回應一個ACK過去,同時向上面應用程序提交一個ERROR,導致上面的SOCKET的send或者recv返回SOCKET_ERROR,正常情況下,如果上面在返回SOCKET_ERROR后調用了 closesocket,那么被動關閉的者一方的TCP就會發送一個FIN過去,自己的狀態就變遷到LAST_ACK.


# 回復:[Socket]尷尬的CLOSE_WAIT狀態以及應對策略 2005-01-30 4:17 PM yun.zheng 
int nRecvBufLength = 
recv(sockConnected, 
szRecvBuffer, 
sizeof(szRecvBuffer), 
0); 
/// zhengyun 20050130: 
/// elssann舉例說,當對方調用closesocket的時候,我的程序正在 
/// recv,這時候有可能對方發送的FIN包我沒有收到,而是由TCP代回了 
/// 一個ACK包,所以我這邊程序進入CLOSE_WAIT狀態。 
/// 所以他建議在這里判斷是否已出錯,是就主動closesocket。 
/// 因為前面我們已經設置了recv超時時間為30秒,那么如果真的是超時了, 
/// 這里收到的錯誤應該是WSAETIMEDOUT,這種情況下也可以關閉連接的 
if (nRecvBufLength == SOCKET_ERROR) 

TRACE_INFO(_T("=用recv接收發生Socket錯誤=")); 
closesocket(sockConnected); 
continue; 
}

這樣可以嗎?

網絡連接無法釋放—— CLOSE_WAIT
關鍵字:TCP ,CLOSE_WAIT, Java, SocketChannel

問題描述:最近性能測試碰到的一個問題。客戶端使用NIO,服務器還是一般的Socket連接。當測試進行一段時間以后,發現服務器端的系統出現大量未釋放的網絡連接。用netstat -na查看,連接狀態為CLOSE_WAIT。這就奇怪了,為什么Socket已經關閉而連接依然未釋放。

解決:Google了半天,發現關于CLOSE_WAIT的問題一般是C的,Java似乎碰到這個問題的不多(這有一篇不錯的,也是解決CLOSE_WAIT的,但是好像沒有根本解決,而是選擇了一個折中的辦法)。接著找,由于使用了NIO,所以懷疑可能是這方面的問題,結果找到了這篇。順著帖子翻下去,其中有幾個人說到了一個問題—— 一端的Socket調用close后,另一端的Socket沒有調用close.于是查了一下代碼,果然發現Server端在某些異常情況時,沒有關閉Socket。改正后問題解決。

時間基本上花在Google上了,不過也學到不少東西。下面為一張TCP連接的狀態轉換圖:

說明:虛線和實線分別對應服務器端(被連接端)和客戶端端(主動連接端)。

結合上圖使用netstat -na命令即可知道到當前的TCP連接狀態。一般LISTEN、ESTABLISHED、TIME_WAIT是比較常見。

分析:

上面我碰到的這個問題主要因為TCP的結束流程未走完,造成連接未釋放。現設客戶端主動斷開連接,流程如下

       Client                            消息                                    Server

         close()
                                      ------ FIN ------->
        FIN_WAIT1                                                         CLOSE_WAIT
                                      <----- ACK -------
        FIN_WAIT2 
                                                                                  close()
                                       <------ FIN ------                     
        TIME_WAIT                                                       LAST_ACK      

                                      ------ ACK ------->  
                                                                                   CLOSED
           CLOSED

如上圖所示,由于Server的Socket在客戶端已經關閉時而沒有調用關閉,造成服務器端的連接處在“掛起”狀態,而客戶端則處在等待應答的狀態上。此問題的典型特征是:一端處于FIN_WAIT2 ,而另一端處于CLOSE_WAIT. 不過,根本問題還是程序寫的不好,有待提高。

TIME_WAIT狀態
根據TCP協議,主動發起關閉的一方,會進入TIME_WAIT狀態,持續2*MSL(Max Segment Lifetime),缺省為240秒,在這個post中簡潔的介紹了為什么需要這個狀態。

值得一說的是,對于基于TCP的HTTP協議,關閉TCP連接的是Server端,這樣,Server端會進入TIME_WAIT狀態,可想而知,對于訪問量大的Web Server,會存在大量的TIME_WAIT狀態,假如server一秒鐘接收1000個請求,那么就會積壓240*1000=240,000個 TIME_WAIT的記錄,維護這些狀態給Server帶來負擔。當然現代操作系統都會用快速的查找算法來管理這些TIME_WAIT,所以對于新的 TCP連接請求,判斷是否hit中一個TIME_WAIT不會太費時間,但是有這么多狀態要維護總是不好。

HTTP協議1.1版規定default行為是Keep-Alive,也就是會重用TCP連接傳輸多個 request/response,一個主要原因就是發現了這個問題。還有一個方法減緩TIME_WAIT壓力就是把系統的2*MSL時間減少,因為 240秒的時間實在是忒長了點,對于Windows,修改注冊表,在HKEY_LOCAL_MACHINE\ SYSTEM\CurrentControlSet\Services\ Tcpip\Parameters上添加一個DWORD類型的值TcpTimedWaitDelay,一般認為不要少于60,不然可能會有麻煩。

對于大型的服務,一臺server搞不定,需要一個LB(Load Balancer)把流量分配到若干后端服務器上,如果這個LB是以NAT方式工作的話,可能會帶來問題。假如所有從LB到后端Server的IP包的 source address都是一樣的(LB的對內地址),那么LB到后端Server的TCP連接會受限制,因為頻繁的TCP連接建立和關閉,會在server上留下TIME_WAIT狀態,而且這些狀態對應的remote address都是LB的,LB的source port撐死也就60000多個(2^16=65536,1~1023是保留端口,還有一些其他端口缺省也不會用),每個LB上的端口一旦進入 Server的TIME_WAIT黑名單,就有240秒不能再用來建立和Server的連接,這樣LB和Server最多也就能支持300個左右的連接。如果沒有LB,不會有這個問題,因為這樣server看到的remote address是internet上廣闊無垠的集合,對每個address,60000多個port實在是夠用了。

一開始我覺得用上LB會很大程度上限制TCP的連接數,但是實驗表明沒這回事,LB后面的一臺Windows Server 2003每秒處理請求數照樣達到了600個,難道TIME_WAIT狀態沒起作用?用Net Monitor和netstat觀察后發現,Server和LB的XXXX端口之間的連接進入TIME_WAIT狀態后,再來一個LB的XXXX端口的 SYN包,Server照樣接收處理了,而是想像的那樣被drop掉了。翻書,從書堆里面找出覆滿塵土的大學時代買的《UNIX Network Programming, Volume 1, Second Edition: Networking APIs: Sockets and XTI》,中間提到一句,對于BSD-derived實現,只要SYN的sequence number比上一次關閉時的最大sequence number還要大,那么TIME_WAIT狀態一樣接受這個SYN,難不成Windows也算BSD-derived?有了這點線索和關鍵字 (BSD),找到這個post,在NT4.0的時候,還是和BSD-derived不一樣的,不過Windows Server 2003已經是NT5.2了,也許有點差別了。

做個試驗,用Socket API編一個Client端,每次都Bind到本地一個端口比如2345,重復的建立TCP連接往一個Server發送Keep-Alive=false 的HTTP請求,Windows的實現讓sequence number不斷的增長,所以雖然Server對于Client的2345端口連接保持TIME_WAIT狀態,但是總是能夠接受新的請求,不會拒絕。那如果SYN的Sequence Number變小會怎么樣呢?同樣用Socket API,不過這次用Raw IP,發送一個小sequence number的SYN包過去,Net Monitor里面看到,這個SYN被Server接收后如泥牛如海,一點反應沒有,被drop掉了。

按照書上的說法,BSD-derived和Windows Server 2003的做法有安全隱患,不過至少這樣至少不會出現TIME_WAIT阻止TCP請求的問題,當然,客戶端要配合,保證不同TCP連接的sequence number要上漲不要下降。

本文來自CSDN博客,轉載請標明出處:http://blog.csdn.net/lionzl/archive/2009/03/20/4007206.as

posted on 2010-07-17 22:37 chatler 閱讀(1135) 評論(0)  編輯 收藏 引用 所屬分類: Socket
<2010年7月>
27282930123
45678910
11121314151617
18192021222324
25262728293031
1234567

常用鏈接

留言簿(10)

隨筆分類(307)

隨筆檔案(297)

algorithm

Books_Free_Online

C++

database

Linux

Linux shell

linux socket

misce

  • cloudward
  • 感覺這個博客還是不錯,雖然做的東西和我不大相關,覺得看看還是有好處的

network

OSS

  • Google Android
  • Android is a software stack for mobile devices that includes an operating system, middleware and key applications. This early look at the Android SDK provides the tools and APIs necessary to begin developing applications on the Android platform using the Java programming language.
  • os161 file list

overall

搜索

  •  

最新評論

閱讀排行榜

評論排行榜

青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            亚洲视频欧美在线| 亚洲电影专区| 亚洲综合国产| 一区二区三区成人| 国产精品久久久久久久浪潮网站 | 一区二区三区欧美成人| 这里只有精品视频在线| 国产精品色一区二区三区| 久久成人国产| 噜噜噜91成人网| 亚洲视频在线观看一区| 亚洲一区二区三区视频播放| 国产婷婷精品| 亚洲激情一区| 国产精品久久777777毛茸茸| 久久成人免费视频| 欧美成ee人免费视频| 亚洲一区二区三区视频播放| 欧美一二三区在线观看| 一本久久综合亚洲鲁鲁| 午夜国产精品视频免费体验区| 亚洲福利在线看| 一区二区高清| 亚洲国产专区校园欧美| 亚洲综合不卡| 99在线观看免费视频精品观看| 午夜视频久久久| 99视频日韩| 亚洲天堂成人| 久久综合一区二区三区| 欧美日韩成人在线播放| 久久久国产精品一区二区中文 | 久久国产免费| 这里只有精品在线播放| 久久亚洲午夜电影| 性欧美长视频| 欧美日韩国产综合视频在线| 久久综合狠狠| 国产精品专区h在线观看| 亚洲国产成人porn| 极品中文字幕一区| 亚洲午夜一区二区| 日韩写真在线| 久久综合网络一区二区| 久久久www成人免费精品| 欧美日韩一区二区三区免费| 欧美黄色小视频| 激情六月综合| 久久福利影视| 久久久国产一区二区三区| 国产精品午夜电影| 亚洲天堂网在线观看| 亚洲视频一区二区在线观看| 欧美高清在线视频| 亚洲成人资源| 亚洲黄色小视频| 老色批av在线精品| 久久久亚洲精品一区二区三区 | 亚洲高清不卡av| 久久乐国产精品| 乱中年女人伦av一区二区| 国内精品久久久久久久影视蜜臀| 亚洲天堂成人在线视频| 午夜欧美不卡精品aaaaa| 国产精品www色诱视频| 中文久久精品| 欧美在线观看视频| 国产一区二区三区日韩| 久久精品官网| 亚洲高清一二三区| 亚洲久久成人| 欧美日韩日韩| 午夜精品区一区二区三| 久久人人97超碰国产公开结果| 国内精品久久久久伊人av| 久久婷婷蜜乳一本欲蜜臀| 免费日韩av| 日韩一级网站| 国产精品毛片va一区二区三区| 亚洲制服av| 老司机午夜精品视频| 亚洲国产精品久久久| 欧美精品一区二区三区久久久竹菊| 亚洲精品国产拍免费91在线| 亚洲性xxxx| 国产主播一区二区三区四区| 久久久人人人| 夜夜精品视频| 久久一区二区三区四区五区| 亚洲黄网站黄| 国产精品免费aⅴ片在线观看| 欧美在线视频一区二区| 欧美日韩另类视频| 一区二区三区欧美在线| 亚洲欧美激情在线视频| 黑人巨大精品欧美黑白配亚洲| 久久久久久久一区二区三区| 亚洲片区在线| 久久久不卡网国产精品一区| 亚洲经典视频在线观看| 国产精品美女久久久久久免费| 欧美主播一区二区三区| 亚洲三级影院| 久久人人看视频| 中日韩男男gay无套| 在线成人av| 国产精品乱码妇女bbbb| 老司机午夜免费精品视频| 亚洲尤物在线| 日韩午夜激情| 欧美成人激情视频| 欧美一级一区| 一区二区三区 在线观看视| 国外成人性视频| 国产精品久久久久久久久久妞妞 | 久久久精品欧美丰满| 一区二区三区国产精品| 欧美freesex8一10精品| 久久激情视频免费观看| 亚洲无线一线二线三线区别av| 黄色成人免费观看| 国产一区二区久久| 国产精品a级| 欧美人与性动交cc0o| 久久男人资源视频| 欧美在线黄色| 午夜精品免费| 亚洲在线网站| 亚洲视频狠狠| 一区二区三区四区五区视频 | 999亚洲国产精| 欧美不卡在线视频| 久久精品1区| 欧美一级淫片aaaaaaa视频| 亚洲在线播放电影| 中日韩美女免费视频网址在线观看| 亚洲三级毛片| 亚洲日本免费电影| 91久久久久久| 亚洲肉体裸体xxxx137| 亚洲国产精品小视频| 亚洲黄色片网站| 99精品视频免费观看视频| 亚洲精品国产精品乱码不99按摩| 在线成人黄色| 亚洲人成在线免费观看| 亚洲精品影视| 亚洲一二三区视频在线观看| 亚洲小视频在线| 亚洲欧美999| 久久精彩免费视频| 久久综合狠狠综合久久综青草| 开元免费观看欧美电视剧网站| 免费成人av在线| 亚洲高清精品中出| 一区二区欧美亚洲| 午夜在线视频观看日韩17c| 欧美亚洲视频| 久久午夜影视| 欧美久久综合| 国产欧美日韩视频| 狠狠色丁香婷婷综合影院| 亚洲国产小视频在线观看| 亚洲精美视频| 亚洲免费一区二区| 久久国产主播精品| 一区二区三区三区在线| 91久久久久| 午夜精品影院| 美女精品视频一区| 欧美日韩三区四区| 国产日韩欧美一区二区三区四区| 国模 一区 二区 三区| 亚洲人妖在线| 久久国产精品72免费观看| 欧美福利视频一区| 中国女人久久久| 久久久久一区二区三区| 国产精品video| 在线观看三级视频欧美| 亚洲五月六月| 欧美激情一区二区三区| 亚洲一二三区在线观看| 美女网站在线免费欧美精品| 国产精品久久久久免费a∨| 在线观看日产精品| 久久av免费一区| 亚洲毛片在线看| 老司机一区二区三区| 国产精品欧美久久| 亚洲毛片在线| 美国三级日本三级久久99| 亚洲午夜电影网| 欧美高清视频免费观看| 尤物网精品视频| 久久成人国产精品| 亚洲视频axxx| 欧美日本免费| 日韩亚洲欧美综合| 亚洲第一天堂av|