成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

TCP 三次握手原理,你真的理解嗎?

開發 開發工具 數據中心
希望通過本文能夠幫大家理解TCP連接過程中的半連接隊列和全連接隊列的概念、原理和作用,更關鍵的是有哪些指標可以明確看到這些問題(工程效率幫助強化對理論的理解)。

[[235390]]

問題描述

場景:JAVA的client和server,使用socket通信。server使用NIO。

1.間歇性得出現client向server建立連接三次握手已經完成,但server的selector沒有響應到這連接。

2.出問題的時間點,會同時有很多連接出現這個問題。

3.selector沒有銷毀重建,一直用的都是一個。

4.程序剛啟動的時候必會出現一些,之后會間歇性出現。

分析問題

正常TCP建連接三次握手過程:

  • 第一步:client 發送 syn 到server 發起握手;
  • 第二步:server 收到 syn后回復syn+ack給client;
  • 第三步:client 收到syn+ack后,回復server一個ack表示收到了server的syn+ack(此時client的56911端口的連接已經是established)。

從問題的描述來看,有點像TCP建連接的時候全連接隊列(accept隊列,后面具體講)滿了,尤其是癥狀2、4. 為了證明是這個原因,馬上通過 netstat -s | egrep "listen" 去看隊列的溢出統計數據:    

反復看了幾次之后發現這個overflowed 一直在增加,那么可以明確的是server上全連接隊列一定溢出了。

接著查看溢出后,OS怎么處理:

tcp_abort_on_overflow 為0表示如果三次握手第三步的時候全連接隊列滿了那么server扔掉client 發過來的ack(在server端認為連接還沒建立起來)

為了證明客戶端應用代碼的異常跟全連接隊列滿有關系,我先把tcp_abort_on_overflow修改成 1,1表示第三步的時候如果全連接隊列滿了,server發送一個reset包給client,表示廢掉這個握手過程和這個連接(本來在server端這個連接就還沒建立起來)。

接著測試,這時在客戶端異常中可以看到很多connection reset by peer的錯誤,到此證明客戶端錯誤是這個原因導致的(邏輯嚴謹、快速證明問題的關鍵點所在)。

于是開發同學翻看java 源代碼發現socket 默認的backlog(這個值控制全連接隊列的大小,后面再詳述)是50,于是改大重新跑,經過12個小時以上的壓測,這個錯誤一次都沒出現了,同時觀察到 overflowed 也不再增加了。

到此問題解決,簡單來說TCP三次握手后有個accept隊列,進到這個隊列才能從Listen變成accept,默認backlog 值是50,很容易就滿了。滿了之后握手第三步的時候server就忽略了client發過來的ack包(隔一段時間server重發握手第二步的syn+ack包給client),如果這個連接一直排不上隊就異常了。

但是不能只是滿足問題的解決,而是要去復盤解決過程,中間涉及到了哪些知識點是我所缺失或者理解不到位的;這個問題除了上面的異常信息表現出來之外,還有沒有更明確地指征來查看和確認這個問題。

深入理解TCP握手過程中建連接的流程和隊列

(圖片來源:http://www.cnxct.com/something-about-phpfpm-s-backlog/)

如上圖所示,這里有兩個隊列:syns queue(半連接隊列);accept queue(全連接隊列)。

三次握手中,在第一步server收到client的syn后,把這個連接信息放到半連接隊列中,同時回復syn+ack給client(第二步);

第三步的時候server收到client的ack,如果這時全連接隊列沒滿,那么從半連接隊列拿出這個連接的信息放入到全連接隊列中,否則按tcp_abort_on_overflow指示的執行。

這時如果全連接隊列滿了并且tcp_abort_on_overflow是0的話,server過一段時間再次發送syn+ack給client(也就是重新走握手的第二步),如果client超時等待比較短,client就很容易異常了。

在我們的os中retry 第二步的默認次數是2(centos默認是5次):

如果TCP連接隊列溢出,有哪些指標可以看呢?

上述解決過程有點繞,聽起來懵,那么下次再出現類似問題有什么更快更明確的手段來確認這個問題呢?(通過具體的、感性的東西來強化我們對知識點的理解和吸收。)

netstat -s

比如上面看到的 667399 times ,表示全連接隊列溢出的次數,隔幾秒鐘執行下,如果這個數字一直在增加的話肯定全連接隊列偶爾滿了。

ss 命令

上面看到的第二列Send-Q 值是50,表示第三列的listen端口上的全連接隊列最大為50,第一列Recv-Q為全連接隊列當前使用了多少。

全連接隊列的大小取決于:min(backlog, somaxconn) . backlog是在socket創建的時候傳入的,somaxconn是一個os級別的系統參數。

這個時候可以跟我們的代碼建立聯系了,比如Java創建ServerSocket的時候會讓你傳入backlog的值:

(來自JDK幫助文檔:https://docs.oracle.com/javase/7/docs/api/java/net/ServerSocket.html)

半連接隊列的大小取決于:max(64,  /proc/sys/net/ipv4/tcp_max_syn_backlog),不同版本的os會有些差異。

我們寫代碼的時候從來沒有想過這個backlog或者說大多時候就沒給他值(那么默認就是50),直接忽視了他,首先這是一個知識點的盲點;其次也許哪天你在哪篇文章中看到了這個參數,當時有點印象,但是過一陣子就忘了,這是知識之間沒有建立連接,不是體系化的。但是如果你跟我一樣首先經歷了這個問題的痛苦,然后在壓力和痛苦的驅動自己去找為什么,同時能夠把為什么從代碼層推理理解到OS層,那么這個知識點你才算是比較好地掌握了,也會成為你的知識體系在TCP或者性能方面成長自我生長的一個有力抓手。

netstat 命令

netstat跟ss命令一樣也能看到Send-Q、Recv-Q這些狀態信息,不過如果這個連接不是Listen狀態的話,Recv-Q就是指收到的數據還在緩存中,還沒被進程讀取,這個值就是還沒被進程讀取的 bytes;而 Send 則是發送隊列中沒有被遠程主機確認的 bytes 數。

netstat -tn 看到的 Recv-Q 跟全連接半連接沒有關系,這里特意拿出來說一下是因為容易跟 ss -lnt 的 Recv-Q 搞混淆,順便建立知識體系,鞏固相關知識點 。  

比如如下netstat -t 看到的Recv-Q有大量數據堆積,那么一般是CPU處理不過來導致的:

上面是通過一些具體的工具、指標來認識全連接隊列(工程效率的手段)。  

實踐驗證一下上面的理解

把java中backlog改成10(越小越容易溢出),繼續跑壓力,這個時候client又開始報異常了,然后在server上通過 ss 命令觀察到:

按照前面的理解,這個時候我們能看到3306這個端口上的服務全連接隊列最大是10,但是現在有11個在隊列中和等待進隊列的,肯定有一個連接進不去隊列要overflow掉,同時也確實能看到overflow的值在不斷地增大。

Tomcat和Nginx中的Accept隊列參數

Tomcat默認短連接,backlog(Tomcat里面的術語是Accept count)Ali-tomcat默認是200, Apache Tomcat默認100。

Nginx默認是511

因為Nginx是多進程模式,所以看到了多個8085,也就是多個進程都監聽同一個端口以盡量避免上下文切換來提升性能   

總結

全連接隊列、半連接隊列溢出這種問題很容易被忽視,但是又很關鍵,特別是對于一些短連接應用(比如Nginx、PHP,當然他們也是支持長連接的)更容易爆發。 一旦溢出,從cpu、線程狀態看起來都比較正常,但是壓力上不去,在client看來rt也比較高(rt=網絡+排隊+真正服務時間),但是從server日志記錄的真正服務時間來看rt又很短。

jdk、netty等一些框架默認backlog比較小,可能有些情況下導致性能上不去。

希望通過本文能夠幫大家理解TCP連接過程中的半連接隊列和全連接隊列的概念、原理和作用,更關鍵的是有哪些指標可以明確看到這些問題(工程效率幫助強化對理論的理解)。

另外每個具體問題都是最好學習的機會,光看書理解肯定是不夠深刻的,請珍惜每個具體問題,碰到后能夠把來龍去脈弄清楚,每個問題都是你對具體知識點通關的好機會。

最后提出相關問題給大家思考

全連接隊列滿了會影響半連接隊列嗎?

netstat -s看到的overflowed和ignored的數值有什么聯系嗎?

如果client走完了TCP握手的第三步,在client看來連接已經建立好了,但是server上的對應連接實際沒有準備好,這個時候如果client發數據給server,server會怎么處理呢?(有同學說會reset,你覺得呢?)

提出這些問題,希望以這個知識點為抓手,讓你的知識體系開始自我生長。

參考文章

http://veithen.github.io/2014/01/01/how-tcp-backlog-works-in-linux.html

http://www.cnblogs.com/zengkefu/p/5606696.html

http://www.cnxct.com/something-about-phpfpm-s-backlog/

http://jaseywang.me/2014/07/20/tcp-queue-%E7%9A%84%E4%B8%80%E4%BA%9B%E9%97%AE%E9%A2%98/

http://jin-yang.github.io/blog/network-synack-queue.html#

http://blog.chinaunix.net/uid-20662820-id-4154399.html

【本文為51CTO專欄作者“阿里巴巴官方技術”原創稿件,轉載請聯系原作者】

戳這里,看該作者更多好文

責任編輯:武曉燕 來源: 51CTO專欄
相關推薦

2019-02-01 09:38:16

2018-10-15 08:06:33

TCP握手原理

2023-10-17 15:44:19

TCP四次揮手

2025-05-29 08:39:24

三次握手四次揮手TCP

2024-10-09 20:54:16

2022-07-07 09:00:17

TCP 連接HTTP 協議

2023-09-07 16:46:54

TCP數據傳遞

2023-03-07 08:38:23

三次握手四次揮手服務端

2023-10-24 15:22:09

TCPUDP

2020-12-08 06:34:16

TCP握手SYN 報文

2022-10-10 07:34:36

TCP三次握手區塊鏈

2024-07-15 08:21:26

TCPC#連接

2019-06-12 11:26:37

TCP三次握手四次揮手

2015-10-13 09:42:52

TCP網絡協議

2024-01-12 08:23:11

TCPACK服務器

2022-07-25 07:07:35

TCP客戶端服務器

2021-03-08 18:08:08

TCP Connect 協議

2019-12-12 10:36:43

TCPSYNIP

2023-09-02 21:57:52

網絡TCP協議

2023-03-06 15:43:56

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品国产精品一区二区夜夜嗨 | 日韩欧美不卡 | 国产精品高清一区二区三区 | 午夜码电影 | 夜夜草导航 | 99re视频在线| 精品成人69xx.xyz | av资源中文在线天堂 | 久久久久久久久国产精品 | 亚洲精品av在线 | 欧美亚洲国产精品 | 羞羞的视频免费看 | 国产精品久久二区 | 欧美激情一区二区三区 | 精品一区二区三区av | 亚洲精品一区久久久久久 | 欧美日韩精品一区 | 91久色| 99久久夜色精品国产亚洲96 | 国产一区 | 色偷偷888欧美精品久久久 | 欧美一区二区三区的 | 国产91视频免费 | 一级黄片一级毛片 | 国产视频1区| 亚洲精品电影网在线观看 | 伦理一区二区 | 欧美不卡网站 | 免费国产视频 | 日韩成人中文字幕 | 亚州毛片 | 97精品国产 | 欧美一级片在线播放 | 亚洲一区二区网站 | 国产欧美一区二区三区国产幕精品 | 国产区精品在线观看 | 性xxxxx| 精品少妇一区二区三区日产乱码 | 在线视频成人 | 亚洲一二三区不卡 | 国产午夜精品久久久久免费视高清 |