成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Dubbo中的連接控制,你真的理解嗎?

網絡 通信技術
dubbo 協議通信默認是長連接,連接配置功能用于決定消費者與提供者建立的長連接數。但官方文檔只給出了該功能的使用方法,卻并沒有說明什么時候應該配置連接控制,本文將主要圍繞該話題進行探討。

[[422543]]

本文轉載自微信公眾號「Kirito的技術分享」,作者kiritomoe。轉載本文請聯系Kirito的技術分享公眾號。

前言

剛發現微信公眾號有了標簽功能,于是乎,我將我 Dubbo 相關的文章都打上了標簽,仔細一統計,這已經是我第 41 篇原創的 Dubbo 文章了,如果你希望看到我其他的 Dubbo 文章,可以從話題標簽點擊進入。

這是一篇很久之前就想動筆寫的文章,最近正好看到群里有小伙伴分享了 Dubbo 連接相關的文章,才又讓我想起了這個話題。今天想跟大家聊的便是 Dubbo 中的連接控制這一話題。說到“連接控制”,可能有讀者還沒反應過來,但你對下面的配置可能不會感到陌生:

  1. <dubbo:reference interface="com.foo.BarService" connections="10" /> 

如果你還不了解 Dubbo 中連接控制的用法,可以參考官方文檔:https://dubbo.apache.org/zh/docs/advanced/config-connections/ ,話說最近 Dubbo 官方文檔來了一次大換血,好多熟悉的文檔差點都沒找到在哪兒 Orz。

眾所周知,dubbo 協議通信默認是長連接,連接配置功能用于決定消費者與提供者建立的長連接數。但官方文檔只給出了該功能的使用方法,卻并沒有說明什么時候應該配置連接控制,本文將主要圍繞該話題進行探討。

本文也會涉及長連接相關的一些知識點。

##使用方式

先來看一個 Dubbo 構建的簡單 demo,啟動一個消費者(192.168.4.226)和一個提供者(192.168.4.224),配置他們的直連。

消費者:

  1. <dubbo:reference id="userService" check="false" 
  2.     interface="org.apache.dubbo.benchmark.service.UserService" 
  3.     url="dubbo://192.168.4.224:20880"/> 

提供者:

  1. <dubbo:service interface="org.apache.dubbo.benchmark.service.UserService" ref="userService" /> 
  2. <bean id="userService" class="org.apache.dubbo.benchmark.service.UserServiceServerImpl"/> 

長連接是看不見摸不著的東西,我們需要一個觀測性工作來”看到“它。啟動提供者和消費者之后,可以使用如下的命令查看 tcp 連接情況

  • Mac 下可使用:lsof -i:20880
  • Linux 下可使用:netstat -ano | grep 20880

提供者:

  1. [root ~]# netstat -ano | grep 20880 
  2. tcp6       0      0 192.168.4.224:20880      :::*                    LISTEN      off (0.00/0/0) 
  3. tcp6    2502      0 192.168.4.224:20880      192.168.4.226:59100     ESTABLISHED off (0.00/0/0) 

消費者:

  1. [root@ ~]# netstat -ano | grep 20880 
  2. tcp6     320    720 192.168.4.226:59110     192.168.4.224:20880      ESTABLISHED on (0.00/0/0) 

通過上述觀察到的現象我們可以發現幾個事實。

僅僅是啟動了提供者和消費者,上述的 TCP 連接就已經了存在,要知道我并沒有觸發調用。也就是說,Dubbo 建連的默認策略是在地址發現時,而不是在調用時。當然,你也可以通過延遲加載 lazy="true" 來修改這一行為,這樣可以將建聯延遲到調用時。

  1. <dubbo:reference id="userService" check="false" 
  2.     interface="org.apache.dubbo.benchmark.service.UserService" 
  3.     url="dubbo://${server.host}:${server.port}" 
  4.     lazy="true"/> 

除此之外,還可以發現消費者和提供者之間只有一條長連接,20880 是 Dubbo 提供者默認開放的端口,就跟 tomcat 默認開放的 8080 一個地位,而 59110 是消費者隨機生成的一個端口。(我之前跟一些朋友交流過,發現很多人不知道消費者也是需要占用一個端口的)

而今天的主角”連接控制“便可以控制長連接的數量,例如我們可以進行如下的配置

  1. <dubbo:reference id="userService" check="false" 
  2.     interface="org.apache.dubbo.benchmark.service.UserService" 
  3.     url="dubbo://192.168.4.224:20880" 
  4.     connections="2" /> 

再啟動一次消費者,觀察長連接情況

提供者:

  1. [root@ ~]# netstat -ano | grep 20880 
  2. tcp6       0      0 192.168.4.224:20880      :::*                    LISTEN      off (0.00/0/0) 
  3. tcp6    2508     96 192.168.4.224:20880      192.168.4.226:59436     ESTABLISHED on (0.00/0/0) 
  4. tcp6    5016    256 192.168.4.224:20880      192.168.4.226:59434     ESTABLISHED on (0.00/0/0) 

消費者:

  1. [root@ ~]# netstat -ano | grep 20880 
  2. tcp6       0   2520 192.168.4.226:59436     192.168.4.224:20880      ESTABLISHED on (0.00/0/0) 
  3. tcp6      48   1680 192.168.4.226:59434     192.168.4.224:20880      ESTABLISHED on (0.00/0/0) 

可以看到,這里已經變成了兩條長連接了。

什么時候需要配置多條長連接

現在我們知道了如何進行連接控制,但什么時候我們應該配置多少條長連接呢?這個時候我可以跟你說,具體視生產情況而定,但你如果你經常看我的公眾號,肯定會知道這不是我的風格,我的風格是什么?benchmark!

寫作之前,我跟幾個同事和網友對這個話題進行了簡單的討論,其實也沒有什么定論,無非是對單連接和多連接吞吐量高低不同的論調。參考既往 Dubbo github 中的 issue,例如:https://github.com/apache/dubbo/pull/2457,我也參與了這個 pr 的討論,講道理,我是持懷疑態度的,我當時的觀點是多連接不一定能夠提升服務的吞吐量(還是挺保守的,沒有這么絕對)。

那接下來,還是用 benchmark 來說話吧,測試工程還是我們的老朋友,使用 Dubbo 官方提供的 dubbo-benchmark 工程。

  • 測試工程地址:https://github.com/apache/dubbo-benchmark.git
  • 測試環境:2 臺阿里云 Linux 4c8g ECS

測試工程在之前的文章介紹過,這里就不過多贅述了,測試方案也非常簡單,兩輪 benchmark,分別測試 connections=1 和 connections=2 時,觀察測試方法的吞吐量。

說干就干,省略一堆測試步驟,直接給出測試結果。

  1. Benchmark           Mode  Cnt      Score      Error  Units 
  2. Client.createUser  thrpt    3  22265.286 ± 3060.319  ops/s 
  3. Client.existUser   thrpt    3  33129.331 ± 1488.404  ops/s 
  4. Client.getUser     thrpt    3  19916.133 ± 1745.249  ops/s 
  5. Client.listUser    thrpt    3   3523.905 ±  590.250  ops/s 

connections=2

  1. Benchmark           Mode  Cnt      Score      Error  Units 
  2. Client.createUser  thrpt    3  31111.698 ± 3039.052  ops/s 
  3. Client.existUser   thrpt    3  42449.230 ± 2964.239  ops/s 
  4. Client.getUser     thrpt    3  30647.173 ± 2551.448  ops/s 
  5. Client.listUser    thrpt    3   6581.876 ±  469.831  ops/s 

從測試結果來看,似乎單連接和多連接的差距是非常大的,近乎可以看做是 2 倍了!看起來連接控制的效果真是好呀,那么事實真的如此嗎?

按照這種方案第一次測試下來之后,我也不太相信這個結果,因為我之前按照其他方式做過多連接的測試,并且我也參加過第三屆中間件挑戰賽,使得我對長連接的認知是:大多數時候,單連接往往能發揮出最優的性能。即使由于硬件原因,這個差距也不應該是兩倍。懷著這樣的疑問,我開始研究,是不是我的測試場景出了什么問題呢?

發現測試方案的問題

經過和閃電俠的討論,他的一席話最終讓我定位到了問題的所在。

不知道大家看完我和閃電俠的對話,有沒有立刻定位到問題所在。

之前測試方案最大的問題便是沒有控制好變量,殊不知:在連接數變化的同時,實際使用的 IO 線程數實際也發生了變化。

Dubbo 使用 Netty 來實現長連接通信,提到長連接和 IO 線程的關系,這里就要介紹到 Netty 的連接模型了。一言以蔽之,Netty 的設置 IO worker 線程和 channel 是一對多的綁定關系,即一個 channel 在建連之后,便會完全由一個 IO 線程來負責全部的 IO 操作。再來看看 Dubbo 是如何設置 NettyClient 和 NettyServer 的 worker 線程組的:

客戶端 org.apache.dubbo.remoting.transport.netty4.NettyClient:

  1. private static final EventLoopGroup NIO_EVENT_LOOP_GROUP = eventLoopGroup(Constants.DEFAULT_IO_THREADS, "NettyClientWorker"); 
  2.    
  3.   @Override 
  4.   protected void doOpen() throws Throwable { 
  5.       final NettyClientHandler nettyClientHandler = new NettyClientHandler(getUrl(), this); 
  6.       bootstrap = new Bootstrap(); 
  7.       bootstrap.group(NIO_EVENT_LOOP_GROUP) 
  8.               .option(ChannelOption.SO_KEEPALIVE, true
  9.               .option(ChannelOption.TCP_NODELAY, true
  10.               .option(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT); 
  11.     ... 
  12.   } 

Constants.DEFAULT_IO_THREADS 在 org.apache.dubbo.remoting.Constants 中被寫死了

  1. int DEFAULT_IO_THREADS = Math.min(Runtime.getRuntime().availableProcessors() + 1, 32); 

在我的 4c8g 的機器上,默認等于 5。

服務端 org.apache.dubbo.remoting.transport.netty4.NettyServer:

  1. protected void doOpen() throws Throwable { 
  2.         bootstrap = new ServerBootstrap(); 
  3.  
  4.         bossGroup = NettyEventLoopFactory.eventLoopGroup(1, "NettyServerBoss"); 
  5.         workerGroup = NettyEventLoopFactory.eventLoopGroup( 
  6.                 getUrl().getPositiveParameter(IO_THREADS_KEY, Constants.DEFAULT_IO_THREADS), 
  7.                 "NettyServerWorker"); 
  8.  
  9.         final NettyServerHandler nettyServerHandler = new NettyServerHandler(getUrl(), this); 
  10.         channels = nettyServerHandler.getChannels(); 
  11.  
  12.         ServerBootstrap serverBootstrap = bootstrap.group(bossGroup, workerGroup) 
  13.             .channel(NettyEventLoopFactory.serverSocketChannelClass()); 
  14.         .option(ChannelOption.SO_REUSEADDR, Boolean.TRUE
  15.                 .childOption(ChannelOption.TCP_NODELAY, Boolean.TRUE
  16.                 .childOption(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT); 
  17.                  
  18.  } 

服務端倒是可以配置,例如我們可以通過 protocol 來控制服務端的 IO 線程數:

  1. <dubbo:protocol name="dubbo" host="${server.host}" server="netty4" port="${server.port}" iothreads="5"/> 

如果不設置,則跟客戶端邏輯一致,是 core + 1 個線程。

好了,問題就在這兒,由于我并沒有進行任何 IO 線程的設置,所以客戶端和服務端都會默認開啟 5 個 IO 線程。當 connections=1 時,Netty 會將 channel1 綁定到一個 IO 線程上,而當 connections=2 時,Netty 會將 channel1 和 channel2 按照順序綁定到 NettyWorkerThread-1和 NettyWorkerThread-2 上,這樣就會有兩個 IO 線程在工作,這樣的測試結果當然是不公平的。

這里需要考慮實際情況,在實際生產中,大多數時候都是分布式場景,連接數一定都是大于 IO 線程數的,所以基本不會出現測試場景中的 channel 數少于 IO 線程數的場景。

解決方案也很簡單,我們需要控制變量,讓 IO 線程數一致,僅僅觀察連接數對吞吐量的影響。針對服務端,可以在 protocol 層配置 iothreads=1;針對客戶端,由于源碼被寫死了,這里我只能通過修改源碼的方式,重新本地打了一個包,使得客戶端 IO 線程數也可以通過 -D 參數指定。

改造之后的,我們得到了如下的測試結果:

1 IO 線程 1 連接

  1. Benchmark           Mode  Cnt      Score      Error  Units 
  2. Client.createUser  thrpt    3  22265.286 ± 3060.319  ops/s 
  3. Client.existUser   thrpt    3  33129.331 ± 1488.404  ops/s 
  4. Client.getUser     thrpt    3  19916.133 ± 1745.249  ops/s 
  5. Client.listUser    thrpt    3   3523.905 ±  590.250  ops/s 

1 IO 線程 2 連接

  1. Benchmark           Mode  Cnt      Score      Error  Units 
  2. Client.createUser  thrpt    3  21776.436 ± 1888.845  ops/s 
  3. Client.existUser   thrpt    3  31826.320 ± 1350.434  ops/s 
  4. Client.getUser     thrpt    3  19354.470 ±  369.486  ops/s 
  5. Client.listUser    thrpt    3   3506.714 ±   18.924  ops/s 

可以發現,單純提升連接數并不會提升服務的吞吐量,這樣的測試結果也更加符合我認知的預期。

總結

從上述測試的結果來看,一些配置參數并不是越大就代表了越好,類似的例子我也在多線程寫文件等場景分析過,唯有理論分析+實際測試才能得出值得信服的結論。當然個人的測試,也可能會因為局部性關鍵信息的遺漏,導致誤差,例如,如果我最終沒有發現 IO 線程數和連接數之間的隱性關聯,很容易就得出連接數和吞吐量成正比的錯誤結論了。當然,也不一定就代表本文最終的結論是靠譜的,說不定還是不夠完善的,也歡迎大家留言,提出意見和建議。

最終回到最初的問題,我們什么時候應該配置 Dubbo 的連接控制呢?按照我個人的經驗,大多數時候,生產環境下連接數是非常多的,你可以挑選一臺線上的主機,通過 netstat -ano| grep 20880| wc -l 來大概統計下,一般是遠超 IO 線程數的,沒必要再多配置成倍的連接數,連接數和吞吐量并不是一個線性增長的關系。

Dubbo 框架有這個能力和大家真的需要用這個能力完全是兩碼事,我相信大多數讀者應該已經過了技術新鮮感驅動項目的階段了吧?如果有一天你需要控制連接數,去達到一定特殊的用途,你就會真心感嘆,Dubbo 真是強呀,這個擴展點都有。

Dubbo 的連接控制真的完全沒有用嗎?也不盡然,我的測試場景還是非常有限的,可能在不同硬件上會跑出不一樣的效果,例如我在第三屆中間件性能挑戰賽中,就是用 2 連接跑出了最好的成績,并非單連接。

 

最后,你如果僅僅使用 Dubbo 去維系你們的微服務架構,大部分情況不需要關注到連接控制這個特性,多花點時間搬磚吧,就醬,我也去搬磚了。

 

責任編輯:武曉燕 來源: Kirito的技術分享
相關推薦

2021-04-23 07:27:31

內存分配CPU

2018-08-20 08:30:05

Kafka架構系統

2018-11-20 09:37:19

Java內存模型

2018-03-21 16:19:40

MVCMVPMVVM

2022-09-22 14:55:31

前端JavaScripthis

2022-09-26 13:10:17

JavaScriptthis

2022-01-05 12:03:48

MySQL索引數據

2021-11-26 08:07:16

MySQL SQL 語句數據庫

2020-06-04 14:15:55

Java中BigDecimal函數

2018-09-29 15:34:34

JavaList接口

2018-07-05 14:25:01

TCP握手原理

2023-05-17 08:52:56

Java原子性可見性

2018-12-21 11:24:55

Java時間處理編程語言

2020-04-17 14:25:22

Kubernetes應用程序軟件開發

2022-07-26 00:00:22

HTAP系統數據庫

2014-04-17 16:42:03

DevOps

2020-06-29 08:32:21

高并發程序員流量

2016-06-01 15:42:58

Hadoop數據管理分布式

2023-10-16 10:29:51

mysqlMVCC

2021-02-01 13:59:47

比特幣區塊鏈安全
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 中文字幕在线观看一区 | 日韩av中文 | 成人午夜影院 | 亚洲精品在线看 | 一级毛片视频 | yiren22综合网成人 | 综合久久99 | 一区二区三区成人 | 韩日精品视频 | 龙珠z国语版在线观看 | 美女福利视频 | 99精品免费 | 亚洲一区欧美 | 久久久精品一区二区三区 | 欧美一区二区三区 | 91国产精品在线 | 国产精品一区二区av | 亚洲精品三级 | 久久最新网址 | 91xx在线观看 | 亚洲综合无码一区二区 | 中文字幕视频在线 | 久久久久国产 | 日韩第一区 | 日韩羞羞 | 97伦理电影网 | 九色 在线 | 亚洲一区二区在线电影 | 精品久久久久久亚洲精品 | 久久精品国产a三级三级三级 | 极品电影院 | 欧洲一区二区三区 | www.色53色.com | 成人在线免费观看 | 一级片在线观看 | 欧美一区二区三区 | 欧美一级片在线观看 | 成人伊人网 | 99热碰| 午夜电影网| 国产7777|