成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Nginx服務器上軟中斷過高問題如何解決?

運維 系統運維
前些天發現XEN虛擬機上的Nginx服務器存在一個問題:軟中斷過高,而且大部分都集中在同一個CPU,一旦系統繁忙,此CPU就會成為木桶的短板。

前些天發現XEN虛擬機上的Nginx服務器存在一個問題:軟中斷過高,而且大部分都集中在同一個CPU,一旦系統繁忙,此CPU就會成為木桶的短板。

 

在問題服務器上運行「top」命令可以很明顯看到「si」存在異樣,大部分軟中斷都集中在 1 號CPU上,其它的CPU完全使不上勁兒:

shell> top
Cpu0: 11.3%us,  4.7%sy,  0.0%ni, 82.5%id,  ...  0.8%si,  0.8%st
Cpu1: 21.3%us,  7.4%sy,  0.0%ni, 51.5%id,  ... 17.8%si,  2.0%st
Cpu2: 16.6%us,  4.5%sy,  0.0%ni, 77.7%id,  ...  0.8%si,  0.4%st
Cpu3: 15.9%us,  3.6%sy,  0.0%ni, 79.3%id,  ...  0.8%si,  0.4%st
Cpu4: 17.7%us,  4.9%sy,  0.0%ni, 75.3%id,  ...  1.2%si,  0.8%st
Cpu5: 23.6%us,  6.6%sy,  0.0%ni, 68.1%id,  ...  0.9%si,  0.9%st
Cpu6: 18.1%us,  4.9%sy,  0.0%ni, 75.7%id,  ...  0.4%si,  0.8%st
Cpu7: 21.1%us,  5.8%sy,  0.0%ni, 71.4%id,  ...  1.2%si,  0.4%st

查詢一下軟中斷相關數據,發現主要集中在 NET_RX 上,猜測是網卡問題:

shell> watch -d -n 1 'cat /proc/softirqs'
                CPU0       CPU1       CPU2 ...       CPU7
      HI:          0          0          0 ...          0
   TIMER: 3692566284 3692960089 3692546970 ... 3693032995
  NET_TX:  130800410  652649368  154773818 ...  308945843
  NET_RX:  443627492 3802219918  792341500 ... 2546517156
   BLOCK:          0          0          0 ...          0
BLOCK_IOPOLL:      0          0          0 ...          0
 TASKLET:          0          0          0 ...          0
   SCHED: 1518716295  335629521 1520873304 ... 1444792018
 HRTIMER:        160       1351        131 ...        196
     RCU: 4201292019 3982761151 4184401659 ... 4039269755

補充:有一個查看中斷(Interrupt)的top風格小工具 itop ,推薦試試。

確認一下宿主機上的網卡信息,發現其運行在單隊列模式下:

shell> grep -A 10 -i network /var/log/dmesg
Initalizing network drop monitor service
Intel(R) Gigabit Ethernet Network Driver - version 3.0.19
igb 0000:05:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:05:00.0: eth0: (PCIe:2.5GT/s:Width x4) 00:1b:21:bf:b3:2c
igb 0000:05:00.0: eth0: PBA No: G18758-002
igb 0000:05:00.0: Using MSI-X ... 1 rx queue(s), 1 tx queue(s)
igb 0000:05:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:05:00.1: eth1: (PCIe:2.5GT/s:Width x4) 00:1b:21:bf:b3:2d
igb 0000:05:00.1: eth1: PBA No: G18758-002
igb 0000:05:00.1: Using MSI-X ... 1 rx queue(s), 1 tx queue(s)

接著確認一下網卡的中斷號,因為是單隊列,所以只有一個中斷號 45:

shell> grep eth /proc/interrupts | awk '{print $1, $NF}'
45: eth0

知道了網卡的中斷號,就可以查詢其中斷親緣性配置「smp_affinity」:

shell> cat /proc/irq/45/smp_affinity
02

這里的 02 實際上是十六進制,表示 1 號CPU,計算方法如下(參考資料):

          Binary       Hex 
  CPU 0    0001         1 
  CPU 1    0010         2
  CPU 2    0100         4
+ CPU 3    1000         8
  -----------------------
  both     1111         f

說明:如果 4 個CPU都參與中斷處理,那么設為 f;同理 8 個CPU的就設置成 ff:

shell> echo ff > /proc/irq/45/smp_affinity

此外還有一個類似的配置「smp_affinity_list」:

shell> cat /proc/irq/45/smp_affinity_list
1

兩個配置是相通的,修改了一個,另一個會跟著變。不過「smp_affinity_list」使用的是十進制,相比較「smp_affinity」的十六進制,可讀性更好些。

了解了這些基本知識,我們可以嘗試換一個CPU試試看會發生什么:

echo 0 > /proc/irq/45/smp_affinity_list

再通過「top」命令觀察,會發現處理軟中斷的CPU變成了 0 號CPU。

說明:如果希望多個CPU參與中斷處理的話,可以使用類似下面的語法:

echo 3,5 > /proc/irq/45/smp_affinity_list
echo 0-7 > /proc/irq/45/smp_affinity_list

壞消息是對單隊列網卡而言,「smp_affinity」和「smp_affinity_list」配置多CPU無效。

好消息是Linux支持RPS,通俗點來說就是在軟件層面模擬實現硬件的多隊列網卡功能。

首先看看如何配置RPS,如果CPU個數是 8 個的話,可以設置成 ff:

shell> echo ff > /sys/class/net/eth0/queues/rx-0/rps_cpus

接著配置內核參數rps_sock_flow_entries(官方文檔推薦設置: 32768):

shell> sysctl net.core.rps_sock_flow_entries=32768

***配置rps_flow_cnt,單隊列網卡的話設置成rps_sock_flow_entries即可:

echo 32768 > /sys/class/net/eth0/queues/rx-0/rps_flow_cnt

說明:如果是多隊列網卡,那么就按照隊列數量設置成 rps_sock_flow_entries / N 。

做了如上的優化后,我們再運行「top」命令可以看到軟中斷已經分散到了兩個CPU:

shell> top
Cpu0: 24.8%us,  9.7%sy,  0.0%ni, 52.2%id,  ... 11.5%si,  1.8%st
Cpu1:  8.8%us,  5.1%sy,  0.0%ni, 76.5%id,  ...  7.4%si,  2.2%st
Cpu2: 17.6%us,  5.1%sy,  0.0%ni, 75.7%id,  ...  0.7%si,  0.7%st
Cpu3: 11.9%us,  7.0%sy,  0.0%ni, 80.4%id,  ...  0.7%si,  0.0%st
Cpu4: 15.4%us,  6.6%sy,  0.0%ni, 75.7%id,  ...  1.5%si,  0.7%st
Cpu5: 20.6%us,  6.9%sy,  0.0%ni, 70.2%id,  ...  1.5%si,  0.8%st
Cpu6: 12.9%us,  5.7%sy,  0.0%ni, 80.0%id,  ...  0.7%si,  0.7%st
Cpu7: 15.9%us,  5.1%sy,  0.0%ni, 77.5%id,  ...  0.7%si,  0.7%st

疑問:理論上講,我已經設置了RPS為ff,應該所有 8 個CPU一起分擔軟中斷才對,可實際結果只有兩個,有知道原因的請賜教,但是不管怎么說,兩個總好過一個。

此外,因為這是一臺Nginx服務器,所以通過「worker_cpu_affinity」指令可以配置Nginx使用哪些CPU,如此一來我們便可以繞開高負載的CPU,對性能會有一些幫助。

補充:如果服務器是NUMA架構的話,那么「numactl –cpubind」可能也會有用。

***,推薦看看香草總結的一些關于軟中斷方面的資料工具,很全面。

責任編輯:黃丹 來源: 火丁筆記
相關推薦

2023-08-27 18:30:44

系統inode

2009-01-09 23:01:24

2009-06-29 19:20:05

刀片服務器機架服務器

2019-04-29 14:23:46

Java服務器CPU

2010-08-02 10:55:27

服務器制冷

2010-03-24 09:25:36

Nginx配置

2011-07-28 09:54:44

服務器

2009-01-05 18:12:47

BalancePoin災備虛擬化

2019-12-27 11:13:24

高并發服務器邏輯

2010-05-19 10:40:19

虛擬機備份

2012-09-05 11:09:15

SELinux操作系統

2017-08-03 10:36:08

UbuntuCertbotNGINX

2009-11-13 16:01:53

思科路由器崩潰

2011-07-28 14:49:40

2010-08-13 10:52:12

思科路由器崩潰

2010-07-29 09:47:22

2009-01-19 18:11:01

2009-02-27 16:53:00

服務器虛擬化虛擬化

2010-04-29 17:46:31

Oracle死鎖

2011-03-07 14:09:10

FileZilla
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 天天拍天天插 | 成人国产精品入口免费视频 | 天天干狠狠操 | 成人精品视频免费 | 国产欧美日韩综合精品一区二区 | 伊人伊人 | 午夜成人免费视频 | 国产午夜精品一区二区三区在线观看 | 亚洲精品视频一区 | 欧美日韩国产欧美 | 国产精品久久久久久妇女6080 | 成年人在线观看视频 | 欧美福利精品 | 亚洲精品久久久蜜桃 | 亚洲一区二区视频 | 欧美精品1区2区3区 免费黄篇 | 亚洲一区二区电影在线观看 | 中文字幕 在线观看 | 久久久青草婷婷精品综合日韩 | 琪琪午夜伦伦电影福利片 | 久久久综合色 | 中文字幕乱码一区二区三区 | 国产黄视频在线播放 | 在线观看免费av网 | 91九色婷婷 | 亚洲综合网站 | 精品欧美乱码久久久久久 | 欧美6一10sex性hd | 91国产精品在线 | 欧美一区在线看 | 国产精品一区二 | 欧美久久免费观看 | 亚洲人在线播放 | 99这里只有精品视频 | 视频一区二区在线观看 | 在线亚洲人成电影网站色www | 国产精品久久久久久久久久久久午夜片 | 亚洲精品一区二区 | 香蕉久久久 | 亚洲视频在线播放 | 老牛影视av一区二区在线观看 |