成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

幾個Go系統(tǒng)可能遇到的鎖問題

開發(fā) 前端
之前統(tǒng)一特征系統(tǒng)在 QA 同學的幫助下進行了一些壓測,發(fā)現(xiàn)了一些問題,這些問題是較為通用的問題,發(fā)出來給其他同學參考一下,避免踩同樣的坑。

之前統(tǒng)一特征系統(tǒng)在 QA 同學的幫助下進行了一些壓測,發(fā)現(xiàn)了一些問題,這些問題是較為通用的問題,發(fā)出來給其他同學參考一下,避免踩同樣的坑。

[[254911]]

底層依賴 sync.Pool 的場景

有一些開源庫,為了優(yōu)化性能,使用了官方提供的 sync.Pool,比如我們使用的 https://github.com/valyala/fasttemplate 這個庫,每當你執(zhí)行下面這樣的代碼的時候:

 

  1. template := "http://{{host}}/?q={{query}}&foo={{bar}}{{bar}}" 
  2.     t := fasttemplate.New(template, "{{""}}"
  3.     s := t.ExecuteString(map[string]interface{}{ 
  4.         "host":  "google.com"
  5.         "query": url.QueryEscape("hello=world"), 
  6.         "bar":   "foobar"
  7.     }) 
  8.     fmt.Printf("%s", s) 

內(nèi)部都會生成一個 fasttemplate.Template 對象,并帶有一個 byteBufferPool 字段:

 

  1. type Template struct { 
  2.     template string 
  3.     startTag string 
  4.     endTag   string 
  5.  
  6.     texts          [][]byte 
  7.     tags           []string 
  8.     byteBufferPool bytebufferpool.Pool   ==== 就是這個字段 

byteBufferPool 底層就是經(jīng)過封裝的 sync.Pool:

 

  1. type Pool struct { 
  2.     calls       [steps]uint64 
  3.     calibrating uint64 
  4.  
  5.     defaultSize uint64 
  6.     maxSize     uint64 
  7.  
  8.     pool sync.Pool 

這種設計會帶來一個問題,如果使用方每次請求都 New 一個 Template 對象。并進行求值,比如我們最初的用法,在每次拿到了用戶的請求之后,都會用參數(shù)填入到模板:

 

  1. func fromTplToStr(tpl string, params map[string]interface{}) string { 
  2.   tplVar := fasttemplate.New(tpl, `{{`, `}}`) 
  3.   res := tplVar.ExecuteString(params) 
  4.   return res 

在模板求值的時候:

 

  1. func (t *Template) ExecuteFuncString(f TagFunc) string { 
  2.     bb := t.byteBufferPool.Get() 
  3.     if _, err := t.ExecuteFunc(bb, f); err != nil { 
  4.         panic(fmt.Sprintf("unexpected error: %s", err)) 
  5.     } 
  6.     s := string(bb.Bytes()) 
  7.     bb.Reset() 
  8.     t.byteBufferPool.Put(bb) 
  9.     return s 

會對該 Template 對象的 byteBufferPool 進行 Get,在使用完之后,把 ByteBuffer Reset 再放回到對象池中。但問題在于,我們的 Template 對象本身并沒有進行復用,所以這里的 byteBufferPool 本身的作用其實并沒有發(fā)揮出來。

相反的,因為每一個請求都需要新生成一個 sync.Pool,在高并發(fā)場景下,執(zhí)行時會卡在 bb := t.byteBufferPool.Get() 這一句上,通過壓測可以比較快地發(fā)現(xiàn)問題,達到一定 QPS 壓力時,會有大量的 Goroutine 堆積,比如下面有 18910 個 G 堆積在搶鎖代碼上:

 

  1. goroutine profile: total 18910 
  2. 18903 @ 0x102f20b 0x102f2b3 0x103fa4c 0x103f77d 0x10714df 0x1071d8f 0x1071d26 0x1071a5f 0x12feeb8 0x13005f0 0x13007c3 0x130107b 0x105c931 
  3. #   0x103f77c   sync.runtime_SemacquireMutex+0x3c                               /usr/local/go/src/runtime/sema.go:71 
  4. #   0x10714de   sync.(*Mutex).Lock+0xfe                                     /usr/local/go/src/sync/mutex.go:134 
  5. #   0x1071d8e   sync.(*Pool).pinSlow+0x3e                                   /usr/local/go/src/sync/pool.go:198 
  6. #   0x1071d25   sync.(*Pool).pin+0x55                                       /usr/local/go/src/sync/pool.go:191 
  7. #   0x1071a5e   sync.(*Pool).Get+0x2e                                       /usr/local/go/src/sync/pool.go:128 
  8. #   0x12feeb7   github.com/valyala/fasttemplate/vendor/github.com/valyala/bytebufferpool.(*Pool).Get+0x37   /Users/xargin/go/src/github.com/valyala/fasttemplate/vendor/github.com/valyala/bytebufferpool/pool.go:49 
  9. #   0x13005ef   github.com/valyala/fasttemplate.(*Template).ExecuteFuncString+0x3f              /Users/xargin/go/src/github.com/valyala/fasttemplate/template.go:278 
  10. #   0x13007c2   github.com/valyala/fasttemplate.(*Template).ExecuteString+0x52                  /Users/xargin/go/src/github.com/valyala/fasttemplate/template.go:299 
  11. #   0x130107a   main.loop.func1+0x3a                                        /Users/xargin/test/go/http/httptest.go:22 

有大量的 Goroutine 會阻塞在獲取鎖上,為什么呢?繼續(xù)看看 sync.Pool 的 Get 流程:

 

  1. func (p *Pool) Get() interface{} { 
  2.     if race.Enabled { 
  3.         race.Disable() 
  4.     } 
  5.     l := p.pin() 
  6.     x := l.private 
  7.     l.private = nil 
  8.     runtime_procUnpin() 

然后是 pin:

 

  1. func (p *Pool) pin() *poolLocal { 
  2.     pid := runtime_procPin() 
  3.      
  4.     s := atomic.LoadUintptr(&p.localSize) // load-acquire 
  5.     l := p.local                          // load-consume 
  6.     if uintptr(pid) < s { 
  7.         return indexLocal(l, pid) 
  8.     } 
  9.     return p.pinSlow() 

因為每一個對象的 sync.Pool 都是空的,所以 pin 的流程一定會走到 p.pinSlow:

 

  1. func (p *Pool) pinSlow() *poolLocal { 
  2.     runtime_procUnpin() 
  3.     allPoolsMu.Lock() 
  4.     defer allPoolsMu.Unlock() 
  5.     pid := runtime_procPin() 

而 pinSlow 中會用 allPoolsMu 來加鎖,這個 allPoolsMu 主要是為了保護 allPools 變量:

 

  1. var ( 
  2.     allPoolsMu Mutex 
  3.     allPools   []*Pool 

在加了鎖的情況下,會把用戶新生成的 sync.Pool 對象 append 到 allPools 中:

 

  1. if p.local == nil { 
  2.         allPools = append(allPools, p) 
  3.     } 

標準庫的 sync.Pool 之所以要維護這么一個 allPools 意圖也比較容易推測,主要是為了 GC 的時候?qū)?pool 進行清理,這也就是為什么說使用 sync.Pool 做對象池時,其中的對象活不過一個 GC 周期的原因。sync.Pool 本身也是為了解決大量生成臨時對象對 GC 造成的壓力問題。

說完了流程,問題也就比較明顯了,每一個用戶請求最終都需要去搶一把全局鎖,高并發(fā)場景下全局鎖是大忌。但是這個全局鎖是因為開源庫間接帶來的全局鎖問題,通過看自己的代碼并不是那么容易發(fā)現(xiàn)。

知道了問題,改進方案其實也還好實現(xiàn),***是可以修改開源庫,將 template 的 sync.Pool 作為全局對象來引用,這樣大部分 pool.Get 不會走到 pinSlow 流程。第二是對 fasttemplate.Template 對象進行復用,道理也是一樣的,就不會有那么多的 sync.Pool 對象生成了。但前面也提到了,這個是個間接問題,如果開發(fā)工作繁忙,不太可能所有的依賴庫把代碼全看完之后再使用,這種情況下怎么避免線上的故障呢?

壓測盡量早做唄。

metrics 上報和 log 鎖

這兩個本質(zhì)都是一樣的問題,就放在一起了。

公司之前 metrics 上報 client 都是基于 udp 的,大多數(shù)做的簡單粗暴,就是一個 client,用戶傳什么就寫什么,最終一定會走到:

 

  1. func (c *UDPConn) WriteToUDP(b []byte, addr *UDPAddr) (int, error) { 
  2.     ---------- 刨去無用細節(jié) 
  3.     n, err := c.writeTo(b, addr) 
  4.     ---------- 刨去無用細節(jié) 
  5.     return n, err 

或者是:

 

  1. func (c *UDPConn) WriteTo(b []byte, addr Addr) (int, error) { 
  2.  
  3.     ---------- 刨去無用細節(jié) 
  4.     n, err := c.writeTo(b, a) 
  5.     ---------- 刨去無用細節(jié) 
  6.     return n, err 

調(diào)用的是:

 

  1. func (c *UDPConn) writeTo(b []byte, addr *UDPAddr) (int, error) { 
  2.     ---------- 刨去無用細節(jié) 
  3.     return c.fd.writeTo(b, sa) 

然后:

 

  1. func (fd *netFD) writeTo(p []byte, sa syscall.Sockaddr) (n int, err error) { 
  2.     n, err = fd.pfd.WriteTo(p, sa) 
  3.     runtime.KeepAlive(fd) 
  4.     return n, wrapSyscallError("sendto", err) 

然后是:

 

  1. func (fd *FD) WriteTo(p []byte, sa syscall.Sockaddr) (int, error) { 
  2.     if err := fd.writeLock(); err != nil {  =========> 重點在這里 
  3.         return 0, err 
  4.     } 
  5.     defer fd.writeUnlock() 
  6.  
  7.     for { 
  8.         err := syscall.Sendto(fd.Sysfd, p, 0, sa) 
  9.         if err == syscall.EAGAIN && fd.pd.pollable() { 
  10.             if err = fd.pd.waitWrite(fd.isFile); err == nil { 
  11.                 continue 
  12.             } 
  13.         } 
  14.         if err != nil { 
  15.             return 0, err 
  16.         } 
  17.         return len(p), nil 
  18.     } 

本質(zhì)上,就是在高成本的網(wǎng)絡操作上套了一把大的寫鎖,同樣在高并發(fā)場景下會導致大量的鎖沖突,進而導致大量的 Goroutine 堆積和接口延遲。

同樣的,知道了問題,解決辦法也很簡單。再看看日志相關(guān)的。因為公司目前大部分日志都是直接向文件系統(tǒng)寫,本質(zhì)上同一個時刻操作的是同一個文件,最終都會走到:

 

  1. func (f *File) Write(b []byte) (n int, err error) { 
  2.     n, e := f.write(b) 
  3.     return n, err 
  4.  
  5. func (f *File) write(b []byte) (n int, err error) { 
  6.     n, err = f.pfd.Write(b) 
  7.     runtime.KeepAlive(f) 
  8.     return n, err 

然后:

 

  1. func (fd *FD) Write(p []byte) (int, error) { 
  2.     if err := fd.writeLock(); err != nil { =========> 又是 writeLock 
  3.         return 0, err 
  4.     } 
  5.     defer fd.writeUnlock() 
  6.     if err := fd.pd.prepareWrite(fd.isFile); err != nil { 
  7.         return 0, err 
  8.     } 
  9.     var nn int 
  10.     for { 
  11.         ----- 略去不相關(guān)內(nèi)容 
  12.         n, err := syscall.Write(fd.Sysfd, p[nn:max]) 
  13.         ----- 略去無用內(nèi)容 
  14.     } 

和 UDP 網(wǎng)絡 FD 一樣有 writeLock,在系統(tǒng)打日志打得很多的情況下,這個 writeLock 會導致和 metrics 上報一樣的問題。

總結(jié)

上面說的幾個問題實際上本質(zhì)都是并發(fā)場景下的 lock contention 問題,全局寫鎖是高并發(fā)場景下的性能殺手,一旦大量的 Goroutine 阻塞在寫鎖上,會導致系統(tǒng)的延遲飚升,直至接口超時。在開發(fā)系統(tǒng)時,涉及到 sync.Pool、單個 FD 的信息上報、以及寫日志的場景時,應該多加注意。早做壓測保平安。

責任編輯:未麗燕 來源: No Headback
相關(guān)推薦

2021-10-12 00:04:24

腳本備份MariDB

2017-09-27 15:20:23

PHPerLaravelMysql

2009-06-30 16:08:19

性能問題代碼寫法

2016-03-23 11:03:40

2010-04-22 14:26:00

Oracle創(chuàng)建同義詞

2013-05-13 10:03:04

git

2021-08-31 07:57:21

輪詢鎖多線編程Java

2021-03-24 08:41:38

Redis 分布式鎖序列化

2024-01-09 15:37:46

2019-10-30 16:03:48

JavaJava虛擬機數(shù)據(jù)庫

2015-07-30 10:31:21

微軟Windows 10升級

2013-04-24 11:33:31

Android開發(fā)Android有用習慣

2014-11-14 15:34:11

2022-05-24 16:09:38

前端腳本

2018-08-14 14:28:34

VMware虛擬機備份

2017-03-30 14:42:08

服務器系統(tǒng)linux

2022-08-12 18:40:00

分布式

2021-09-02 07:04:44

Go 開發(fā)利器

2023-08-17 14:42:54

Redis分布式鎖

2022-07-18 08:08:16

Go?語言技巧
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 久草99 | 麻豆亚洲| 黄一区二区三区 | 欧美激情综合五月色丁香小说 | 国产精品伦一区二区三级视频 | 精品视频在线播放 | 羞羞午夜 | 欧美日韩久久 | 亚洲欧美日韩系列 | 嫩草视频入口 | 国产免费视频在线 | 亚洲va在线va天堂va狼色在线 | 欧美性生交大片免费 | 在线午夜电影 | 亚洲热在线视频 | av中文字幕网 | 国产欧美一区二区三区日本久久久 | 亚洲第一网站 | 精品在线一区 | 一区二区三区精品在线视频 | 亚洲精品www久久久久久广东 | 亚洲视频在线播放 | 国产一级片免费看 | 久久国产精99精产国高潮 | 日韩电影一区二区三区 | 国产精品一区二区欧美黑人喷潮水 | 国产精品福利在线观看 | 久久新视频 | 日韩网站免费观看 | 成人精品一区二区 | 欧美精品一区二区三区在线播放 | 毛片com| 久久久久久免费观看 | 色偷偷人人澡人人爽人人模 | 国产精品久久久久久久久久久久冷 | 国产丝袜一区二区三区免费视频 | 2022精品国偷自产免费观看 | 久在线视频播放免费视频 | 亚洲精品字幕 | 一区二区不卡视频 | 网站国产|