首頁>技術>

本文內容95%譯自這篇文章:https://github.com/brettwooldridge/HikariCP/wiki/About-Pool-Sizing

我在研究HikariCP(一個數據庫連線池)時無意間在HikariCP的Github wiki上看到了一篇文章(即前面給出的連結),這篇文章有力地消除了我一直以來的疑慮,看完之後感覺神清氣爽。故在此做譯文分享。

接下來是正文

資料庫連線池的配置是開發者們常常搞出坑的地方,在配置資料庫連線池時,有幾個可以說是和直覺背道而馳的原則需要明確。

1萬併發使用者訪問

想象你有一個網站,壓力雖然還沒到Facebook那個級別,但也有個1萬上下的併發訪問——也就是說差不多2萬左右的TPS。那麼這個網站的資料庫連線池應該設定成多大呢?結果可能會讓你驚訝,因為這個問題的正確問法是:

“這個網站的資料庫連線池應該設定成多小呢?”

下面這個影片是Oracle Real World Performance Group釋出的,請先看完:http://www.dailymotion.com/video/x2s8uec

(因為這影片是英文解說且沒有字幕,我替大家做一下簡單的概括:) 影片中對Oracle資料庫進行壓力測試,9600併發執行緒進行資料庫操作,每兩次訪問資料庫的操作之間sleep 550ms,一開始設定的中介軟體執行緒池大小為2048:

初始的配置

壓測跑起來之後是這個樣子的:

2048連線時的效能資料

每個請求要在連線池佇列裡等待33ms,獲得連線後執行SQL需要77ms

此時資料庫的等待事件是這個熊樣的:

各種buffer busy waits

各種buffer busy waits,資料庫CPU在95%左右(這張圖裡沒截到CPU)

接下來,把中介軟體連線池減到1024(併發什麼的都不變),效能資料變成了這樣:

連線池降到1024後

獲取連結等待時長沒怎麼變,但是執行SQL的耗時減少了。下面這張圖,上半部分是wait,下半部分是吞吐量

wait和吞吐量

能看到,中介軟體連線池從2048減半之後,吐吞量沒變,但wait事件減少了一半。

接下來,把資料庫連線池減到96,併發執行緒數仍然是9600不變。

96個連線時的效能資料

佇列平均等待1ms,執行SQL平均耗時2ms。

wait事件幾乎沒了,吞吐量上升。

沒有調整任何其他東西,僅僅只是縮小了中介軟體層的資料庫連線池,就把請求響應時間從100ms左右縮短到了3ms。

But why?

為什麼nginx只用4個執行緒發揮出的效能就大大超越了100個程序的Apache HTTPD?回想一下計算機科學的基礎知識,答案其實是很明顯的。

即使是單核CPU的計算機也能“同時”執行數百個執行緒。但我們都[應該]知道這只不過是作業系統用時間分片玩的一個小把戲。一顆CPU核心同一時刻只能執行一個執行緒,然後作業系統切換上下文,核心開始執行另一個執行緒的程式碼,以此類推。給定一顆CPU核心,其順序執行AB永遠比透過時間分片“同時”執行AB要快,這是一條計算機科學的基本法則。一旦執行緒的數量超過了CPU核心的數量,再增加執行緒數系統就只會更慢,而不是更快。

這幾乎就是真理了……

有限的資源

上面的說法只能說是接近真理,但還並沒有這麼簡單,有一些其他的因素需要加入。當我們尋找資料庫的效能瓶頸時,總是可以將其歸為三類:CPU、磁碟、網路。把記憶體加進來也沒有錯,但比起磁碟和網路,記憶體的頻寬要高出好幾個數量級,所以就先不加了。

如果我們無視磁碟和網路,那麼結論就非常簡單。在一個8核的伺服器上,設定連線/執行緒數為8能夠提供最優的效能,再增加連線數就會因上下文切換的損耗導致效能下降。資料庫通常把資料儲存在磁碟上,磁碟又通常是由一些旋轉著的金屬碟片和一個裝在步進馬達上的讀寫頭組成的。讀/寫頭同一時刻只能出現在一個地方,然後它必須“定址”到另外一個位置來執行另一次讀寫操作。所以就有了定址的耗時,此外還有旋迴耗時,讀寫頭需要等待碟片上的目標資料“旋轉到位”才能進行操作。使用快取當然是能夠提升效能的,但上述原理仍然成立。

在這一時間段(即"I/O等待")內,執行緒是在“阻塞”著等待磁碟,此時作業系統可以將那個空閒的CPU核心用於服務其他執行緒。所以,由於執行緒總是在I/O上阻塞,我們可以讓執行緒/連線數比CPU核心多一些,這樣能夠在同樣的時間內完成更多的工作。

那麼應該多多少呢?這要取決於磁碟。較新型的SSD不需要定址,也沒有旋轉的碟片。可別想當然地認為“SSD速度更快,所以我們應該增加執行緒數”,恰恰相反,無需定址和沒有旋迴耗時意味著更少的阻塞,所以更少的執行緒[更接近於CPU核心數]會發揮出更高的效能。只有當阻塞創造了更多的執行機會時,更多的執行緒數才能發揮出更好的效能

網路和磁碟類似。透過乙太網介面讀寫資料時也會形成阻塞,10G頻寬會比1G頻寬的阻塞少一些,1G頻寬又會比100M頻寬的阻塞少一些。不過網路通常是放在第三位考慮的,有些人會在效能計算中忽略它們。

上圖是PostgreSQL的benchmark資料,可以看到TPS增長率從50個連線數開始變緩。在上面Oracle的影片中,他們把連線數從2048降到了96,實際上96都太高了,除非伺服器有16或32顆核心。

計算公式

下面的公式是由PostgreSQL提供的,不過我們認為可以廣泛地應用於大多數資料庫產品。你應該模擬預期的訪問量,並從這一公式開始測試你的應用,尋找最合適的連線數值。

連線數 = ((核心數 * 2) + 有效磁碟數)

核心數不應包含超執行緒(hyper thread),即使打開了hyperthreading也是。如果活躍資料全部被快取了,那麼有效磁碟數是0,隨著快取命中率的下降,有效磁碟數逐漸趨近於實際的磁碟數。這一公式作用於SSD時的效果如何尚未有分析。

按這個公式,你的4核i7資料庫伺服器的連線池大小應該為((4 * 2) + 1) = 9。取個整就算是是10吧。是不是覺得太小了?跑個性能測試試一下,我們保證它能輕鬆搞定3000使用者以6000TPS的速率併發執行簡單查詢的場景。如果連線池大小超過10,你會看到響應時長開始增加,TPS開始下降。

筆者注:這一公式其實不僅適用於資料庫連線池的計算,大部分涉及計算和I/O的程式,執行緒數的設定都可以參考這一公式。我之前在對一個使用Netty編寫的訊息收發服務進行壓力測試時,最終測出的最佳執行緒數就剛好是CPU核心數的一倍。

公理:你需要一個小連線池,和一個充滿了等待連線的執行緒的佇列

如果你有10000個併發使用者,設定一個10000的連線池基本等於失了智。1000仍然很恐怖。即是100也太多了。你需要一個10來個連線的小連線池,然後讓剩下的業務執行緒都在佇列裡等待。連線池中的連線數量應該等於你的資料庫能夠有效同時進行的查詢任務數(通常不會高於2*CPU核心數)。

我們經常見到一些小規模的web應用,應付著大約十來個的併發使用者,卻使用著一個100連線數的連線池。這會對你的資料庫造成極其不必要的負擔。

請注意

連線池的大小最終與系統特性相關。

比如一個混合了長事務和短事務的系統,通常是任何連線池都難以進行調優的。最好的辦法是建立兩個連線池,一個服務於長事務,一個服務於短事務。

再例如一個系統執行一個任務佇列,只允許一定數量的任務同時執行,此時併發任務數應該去

55
  • BSA-TRITC(10mg/ml) TRITC-BSA 牛血清白蛋白改性標記羅丹明
  • 怎樣學作業系統?一文帶你掌握核心內容