歷史的迷思
站在未來的路口,回望歷史的迷途,常常會很有意思,因為我們會不經意地興起瘋狂的念頭,例如如果當年某事提前發生了,而另外一件事又沒有發生會怎樣?一如當年的奧匈帝國皇位繼承人斐迪南大公夫婦如果沒有被塞爾維亞族熱血青年普林西普槍殺會怎樣,又如若當年的丘老道沒有經過牛家村會怎樣?
2007年底,淘寶開啟一個叫做“五彩石”的內部重構專案,這個專案後來成為了淘寶服務化、面向分散式走自研之路,走出了網際網路中介軟體體系之始,而淘寶服務註冊中心ConfigServer於同年誕生。
2008年前後,Yahoo 這個曾經的網際網路巨頭開始逐漸在公開場合宣講自己的大資料分散式協調產品 ZooKeeper,這個產品參考了Google 發表的關於Chubby以及 Paxos 的論文。
2010年11月,ZooKeeper從 Apache Hadoop的子專案發展為 Apache的頂級專案,正式宣告 ZooKeeper成為一個工業級的成熟穩定的產品。
2011年,阿里巴巴開源Dubbo,為了更好開源,需要剝離與阿里內部系統的關係,Dubbo 支援了開源的 ZooKeeper 作為其註冊中心,後來在國內,在業界諸君的努力實踐下,Dubbo + ZooKeeper 的典型的服務化方案成就了 ZooKeeper 作為註冊中心的聲名。
2015年雙11,ConfigServer 服務內部近8個年頭過去了,阿里巴巴內部“服務規模”超幾百萬 ,以及推進“千里之外”的IDC容災技術戰略等,共同促使阿里巴巴內部開啟了 ConfigServer 2.0 到 ConfigServer 3.0 的架構升級之路。
時間走向2018年,站在10年的時間路口上,有多少人願意在追逐日新月異的新潮技術概念的時候,稍微慢一下腳步,仔細凝視一下服務發現這個領域,有多少人想到過或者思考過一個問題:
服務發現,ZooKeeper 真的是最佳選擇麼?
而回望歷史,我們也偶有迷思,在服務發現這個場景下,如果當年 ZooKeeper 的誕生之日比我們 HSF 的註冊中心 ConfigServer 早一點會怎樣?
我們會不會走向先使用ZooKeeper然後瘋狂改造與修補ZooKeeper以適應阿里巴巴的服務化場景與需求的彎路?
但是,站在今天和前人的肩膀上,我們從未現在天這樣堅定的認知到,在服務發現領域,ZooKeeper 根本就不能算是最佳的選擇,一如這些年一直與我們同行的Eureka以及這篇文章 Eureka! Why You Shouldn’t Use ZooKeeper for Service Discovery 那堅定的闡述一樣,為什麼你不應該用 ZooKeeper 做服務發現!
吾道不孤矣。
接下來,讓我們迴歸對服務發現的需求分析,結合阿里巴巴在關鍵場景上的實踐,來一一分析,一起探討為何說 ZooKeeper 並不是最合適的註冊中心解決方案。
CAP 和 BASE 理論相信讀者都已經耳熟能詳,其業已成了指導分散式系統及網際網路應用構建的關鍵原則之一,在此不再贅述其理論,我們直接進入對註冊中心的資料一致性和可用性需求的分析:
資料一致性需求分析
註冊中心最本質的功能可以看成是一個Query函式 ,以 為查詢引數, 對應的服務的可用的 列表為返回值.
先來看看關鍵資料 不一致性帶來的影響,即 CAP 中的 C 不滿足帶來的後果 :
如上圖所示,如果一個 svcB 部署了10個節點 (副本/Replica),如果對於同一個服務名 svcB, 呼叫者 svcA 的2個節點的2次查詢返回了不一致的資料,例如: S1 = { ip1,ip2,ip3…,ip9 }, S2 = { ip2,ip3,….ip10 }, 那麼這次不一致帶來的影響是什麼?
相信你一定已經看出來了,svcB 的各個節點流量會有一點不均衡。
ip1和ip10相對其它8個節點{ip2…ip9},請求流量小了一點,但很明顯,在分散式系統中,即使是對等部署的服務,因為請求到達的時間,硬體的狀態,作業系統的排程,虛擬機器的 GC 等,任何一個時間點,這些對等部署的節點狀態也不可能完全一致,而流量不一致的情況下,只要註冊中心在SLA承諾的時間內(例如1s內)將資料收斂到一致狀態(即滿足最終一致),流量將很快趨於統計學意義上的一致,所以註冊中心以最終一致的模型設計在生產實踐中完全可以接受。
分割槽容忍及可用性需求分析
接下來我們看一下網路分割槽(Network Partition)情況下注冊中心不可用對服務呼叫產生的影響,即 CAP 中的A不滿足時帶來的影響。
考慮一個典型的ZooKeeper三機房容災5節點部署結構 (即2-2-1結構),如下圖:
當機房3出現網路分割槽(Network Partitioned)的時候,即機房3在網路上成了孤島,我們知道雖然整體 ZooKeeper 服務是可用的,但是節點ZK5是不可寫的,因為聯絡不上 Leader。
也就是說,這時候機房3的應用服務 svcB 是不可以新部署,重新啟動,擴容或者縮容的,但是站在網路和服務呼叫的角度看,機房3的 svcA 雖然無法呼叫機房1和機房2的 svcB,但是與機房3的svcB之間的網路明明是 OK 的啊,為什麼不讓我呼叫本機房的服務?
現在因為註冊中心自身為了保腦裂(P)下的資料一致性(C)而放棄了可用性,導致了同機房的服務之間出現了無法呼叫,這是絕對不允許的!可以說在實踐中,註冊中心不能因為自身的任何原因破壞服務之間本身的可連通性,這是註冊中心設計應該遵循的鐵律! 後面在註冊中心客戶端災容上我們還會繼續討論。
同時我們再考慮一下這種情況下的資料不一致性,如果機房1,2,3之間都成了孤島,那麼如果每個機房的svcA都只拿到本機房的 svcB 的ip列表,也即在各機房svcB 的ip列表資料完全不一致,影響是什麼?
其實沒啥大影響,只是這種情況下,全都變成了同機房呼叫,我們在設計註冊中心的時候,有時候甚至會主動利用這種註冊中心的資料可以不一致性,來幫助應用主動做到同機房呼叫,從而優化服務呼叫鏈路 RT 的效果!
通過以上我們的闡述可以看到,在 CAP 的權衡中,註冊中心的可用性比資料強一致性更寶貴,所以整體設計更應該偏向 AP,而非 CP,資料不一致在可接受範圍,而P下捨棄A卻完全違反了註冊中心不能因為自身的任何原因破壞服務本身的可連通性的原則。
你所在公司的“微服務”規模有多大?數百微服務?部署了上百個節點?那麼3年後呢?網際網路是產生奇蹟的地方,也許你的“服務”一夜之間就家喻戶曉,流量倍增,規模翻番!
當資料中心服務規模超過一定數量 (服務規模=F{服務pub數,服務sub數}),作為註冊中心的 ZooKeeper 很快就會像下圖的驢子一樣不堪重負
其實當ZooKeeper用對地方時,即用在粗粒度分散式鎖,分散式協調場景下,ZooKeeper 能支援的tps 和支撐的連線數是足夠用的,因為這些場景對於 ZooKeeper 的擴充套件性和容量訴求不是很強烈。
但在服務發現和健康監測場景下,隨著服務規模的增大,無論是應用頻繁釋出時的服務註冊帶來的寫請求,還是刷毫秒級的服務健康狀態帶來的寫請求,還是恨不能整個資料中心的機器或者容器皆與註冊中心有長連線帶來的連線壓力上,ZooKeeper 很快就會力不從心,而 ZooKeeper 的寫並不是可擴充套件的,不可以通過加節點解決水平擴充套件性問題。
要想在 ZooKeeper 基礎上硬著頭皮解決服務規模的增長問題,一個實踐中可以考慮的方法是想辦法梳理業務,垂直劃分業務域,將其劃分到多個 ZooKeeper 註冊中心,但是作為提供通用服務的平臺機構組,因自己提供的服務能力不足要業務按照技術的指揮棒配合劃分治理業務,真的可行麼?
而且這又違反了因為註冊中心自身的原因(能力不足)破壞了服務的可連通性,舉個簡單的例子,1個搜尋業務,1個地圖業務,1個大文娛業務,1個遊戲業務,他們之間的服務就應該老死不相往來麼?也許今天是肯定的,那麼明天呢,1年後呢,10年後呢?誰知道未來會要打通幾個業務域去做什麼奇葩的業務創新?註冊中心作為基礎服務,無法預料未來的時候當然不能妨礙業務服務對未來固有聯通性的需求。
需要,也不需要。
我們知道 ZooKeeper 的 ZAB 協議對每一個寫請求,會在每個ZooKeeper節點上保持寫一個事務日誌,同時再加上定期的將記憶體資料映象(Snapshot)到磁碟來保證資料的一致性和永續性,以及宕機之後的資料可恢復,這是非常好的特性,但是我們要問,在服務發現場景中,其最核心的資料-實時的健康的服務的地址列表真的需要資料持久化麼?
對於這份資料,答案是否定的。
如上圖所示,如果 svcB 經歷了註冊服務(ip1)到擴容到2個節點(ip1,ip2)到因宕機縮容 (ip1 宕機),這個過程中,產生了3次針對 ZooKeeper 的寫操作。
但是仔細分析,通過事務日誌,持久化連續記錄這個變化過程其實意義不大,因為在服務發現中,服務呼叫發起方更關注的是其要呼叫的服務的實時的地址列表和實時健康狀態,每次發起呼叫時,並不關心要呼叫的服務的歷史服務地址列表、過去的健康狀態。
但是為什麼又說需要呢,因為一個完整的生產可用的註冊中心,除了服務的實時地址列表以及實時的健康狀態之外,還會儲存一些服務的元資料資訊,例如服務的版本,分組,所在的資料中心,權重,鑑權策略資訊,service label等元資訊,這些資料需要持久化儲存,並且註冊中心應該提供對這些元資訊的檢索的能力。
使用 ZooKeeper 作為服務註冊中心時,服務的健康檢測常利用 ZooKeeper 的 Session 活性 Track機制 以及結合 Ephemeral ZNode的機制,簡單而言,就是將服務的健康監測繫結在了 ZooKeeper 對於 Session 的健康監測上,或者說繫結在TCP長連結活性探測上了。
這在很多時候也會造成致命的問題,ZK 與服務提供者機器之間的TCP長連結活性探測正常的時候,該服務就是健康的麼?答案當然是否定的!註冊中心應該提供更豐富的健康監測方案,服務的健康與否的邏輯應該開放給服務提供方自己定義,而不是一刀切搞成了 TCP 活性檢測!
健康檢測的一大基本設計原則就是儘可能真實的反饋服務本身的真實健康狀態,否則一個不敢被服務呼叫者相信的健康狀態判定結果還不如沒有健康檢測。
前文提過,在實踐中,註冊中心不能因為自身的任何原因破壞服務之間本身的可連通性,那麼在可用性上,一個本質的問題,如果註冊中心(Registry)本身完全宕機了,svcA 呼叫 svcB鏈路應該受到影響麼?
是的,不應該受到影響。
服務呼叫(請求響應流)鏈路應該是弱依賴註冊中心,必須僅在服務釋出,機器上下線,服務擴縮容等必要時才依賴註冊中心。
這需要註冊中心仔細的設計自己提供的客戶端,客戶端中應該有針對註冊中心服務完全不可用時做容災的手段,例如設計客戶端快取資料機制(我們稱之為 client snapshot)就是行之有效的手段。另外,註冊中心的 health check 機制也要仔細設計以便在這種情況不會出現諸如推空等情況的出現。
ZooKeeper的原生客戶端並沒有這種能力,所以利用 ZooKeeper 實現註冊中心的時候我們一定要問自己,如果把 ZooKeeper 所有節點全乾掉,你生產上的所有服務呼叫鏈路能不受任何影響麼?而且應該定期就這一點做故障演練。
ZooKeeper 看似很簡單的一個產品,但在生產上大規模使用並且用好,並不是那麼理所當然的事情。如果你決定在生產中引入 ZooKeeper,你最好做好隨時向 ZooKeeper 技術專家尋求幫助的心理預期,最典型的表現是在兩個方面:
難以掌握的Client/Session狀態機
ZooKeeper 的原生客戶端絕對稱不上好用,Curator 會好一點,但其實也好的有限,要完全理解 ZooKeeper 客戶端與 Server 之間的互動協議也並不簡單,完全理解並掌握 ZooKeeper Client/Session 的狀態機(下圖)也並不是那麼簡單明了:
但基於 ZooKeeper 的服務發現方案卻是依賴 ZooKeeper 提供的長連線/Session管理,Ephemeral ZNode,Event&Notification, ping 機制上,所以要用好ZooKeeper 做服務發現,恰恰要理解這些 ZooKeeper 核心的機制原理,這有時候會讓你陷入暴躁,我只是想要個服務發現而已,怎麼要知道這麼多?而如果這些你都理解了並且不踩坑,恭喜你,你已經成為ZooKeeper的技術專家了。
我們在阿里巴巴內部應用接入 ZooKeeper 時,有一個《ZooKeeper 應用接入必知必會》的 WIKI,其中關於異常處理有過如下的論述:
阿里巴巴的小夥伴在自行嘗試使用 ZooKeeper 做服務發現的過程中,曾經在我們的內網技術論壇上總結過一篇自己踩坑的經驗分享
阿里巴巴是不是完全沒有使用 ZooKeeper?並不是。
熟悉阿里巴巴技術體系的都知道,其實阿里巴巴維護了目前國內最大規模的ZooKeeper叢集,整體規模有近千臺的ZooKeeper服務節點。
同時阿里巴巴中介軟體內部也維護了一個面向大規模生產的、高可用、更易監控和運維的ZooKeeper的程式碼分支TaoKeeper,如果以我們近10年在各個業務線和生產上使用ZooKeeper的實踐,給ZooKeeper 用一個短語評價的話,那麼我們認為ZooKeeper應該是 “The King Of Coordination for Big Data”!
在粗粒度分散式鎖,分散式選主,主備高可用切換等不需要高TPS 支援的場景下有不可替代的作用,而這些需求往往多集中在大資料、離線任務等相關的業務領域,因為大資料領域,講究分割資料集,並且大部分時間分任務多程序/執行緒並行處理這些資料集,但是總是有一些點上需要將這些任務和程序統一協調,這時候就是 ZooKeeper 發揮巨大作用的用武之地。
但是在交易場景交易鏈路上,在主業務資料存取,大規模服務發現、大規模健康監測等方面有天然的短板,應該竭力避免在這些場景下引入 ZooKeeper,在阿里巴巴的生產實踐中,應用對ZooKeeper申請使用的時候要進行嚴格的場景、容量、SLA需求的評估。
所以可以使用 ZooKeeper,但是大資料請向左,而交易則向右,分散式協調向左,服務發現向右。
感謝你耐心的閱讀到這裡,至此,我相信你已經理解,我們寫這篇文章並不是全盤否定 ZooKeeper,而只是根據我們阿里巴巴在近10年來在大規模服務化上的生產實踐,對我們在服務發現和註冊中心設計及使用上的經驗教訓進行一個總結,希望對業界就如何更好的使用 ZooKeeper,如何更好的設計自己的服務註冊中心有所啟發和幫助。
最後,條條大路通羅馬,衷心祝願你的註冊中心直接就誕生在羅馬。
-
1 #
阿里飛天的女媧是基於zookeeper的