10分鐘了解一致性哈希算法,全網(小區區域網)(建議收藏)

2020-12-11 前端程式設計師黃哥

很多同學應該都知道什麼是哈希函數,在後端面試和開發中會遇到「一致性哈希」,那麼什麼是一致性哈希呢?名字聽起來很厲害的樣子,其實原理並不複雜,這篇文章帶你徹底搞懂一致性哈希!

進入主題前,先來一場緊張刺激的模擬面試吧。

模擬面試

面試官:看你簡歷上寫參與了一個大型項目,用到了分布式緩存集群,那你說說你們是怎麼做緩存負載均衡?

萌新 :這個我知道,我們用的是輪詢方式,第一個key 給第一個存儲節點,第二個 key 給第二個,以此類推。

面試官:還有其他解決方案嗎?

萌新:可以用哈希函數,把請求打散隨機分配到緩存集群內機器。

面試官:考慮過這種哈希方式負載均衡的擴展性和容錯性嗎?

萌新:...

面試官:回去等通知吧。

以上如有雷同,算你抄我的。

什麼是哈希

數據結構中我們學習過哈希表也稱為散列表,我們來回顧下散列表的定義。

散列表,是根據鍵直接訪問在指定儲存位置數據的數據結構。通過計算一個關於鍵的函數也稱為哈希函數,將所需查詢的數據映射到表中一個位置來訪問記錄,加快查找速度。這個映射函數稱做「散列函數」,存放記錄的數組稱做散列表。

散列函數能使對一個數據序列的訪問過程更加迅速有效,是一種空間換時間的算法,通過散列函數數據元素將被更快定位。

下圖示意了字符串經過哈希函數映射到哈希表的過程。沒錯,輸入字符串是用臉滾鍵盤打出來的:)

常見的哈希算法有MD5、CRC 、MurmurHash 等算法。

MD5算法

MD5消息摘要算法(英語:MD5 Message-Digest Algorithm),一種被廣泛使用的密碼散列函數,可以產生出一個128位(16位元組)的散列值(hash value),MD5算法將數據(如一段文字)運算變為另一固定長度值,是散列算法的基礎原理。由美國密碼學家 Ronald Linn Rivest設計,於1992年公開並在 RFC 1321 中被加以規範。

CRC算法

循環冗餘校驗(Cyclic Redundancy Check)是一種根據網絡數據包或電腦文件等數據,產生簡短固定位數校驗碼的一種散列函數,由 W. Wesley Peterson 於1961年發表。生成的數字在傳輸或者存儲之前計算出來並且附加到數據後面,然後接收方進行檢驗確定數據是否發生變化。由於本函數易於用二進位的電腦硬體使用、容易進行數學分析並且尤其善於檢測傳輸通道幹擾引起的錯誤,因此獲得廣泛應用。

MurmurHash

MurmurHash 是一種非加密型哈希函數,適用於一般的哈希檢索操作。由 Austin Appleby 在2008年發明,並出現了多個變種,與其它流行的哈希函數相比,對於規律性較強的鍵,MurmurHash的隨機分布特徵表現更良好。

這個算法已經被很多開源項目使用,比如libstdc++ (4.6版)、Perl、nginx (不早於1.0.1版)、Rubinius、 libmemcached、maatkit、Hadoop等。

常見散列方法

直接定址法:取關鍵字或關鍵字的某個線性函數值為散列地址,這個線性函數的定義多種多樣,沒有標準。數字分析法:假設關鍵字是以r為基的數,並且哈希表中可能出現的關鍵字都是事先知道的,則可取關鍵字的若干數位組成哈希地址。平方取中法:取關鍵字平方後的中間幾位為哈希地址。通常在選定哈希函數時不一定能知道關鍵字的全部情況,取其中的哪幾位也不一定合適,而一個數平方後的中間幾位數和數的每一位都相關,由此使隨機分布的關鍵字得到的哈希地址也是隨機的,取的位數由表長決定。摺疊法:將關鍵字分割成位數相同的幾部分(最後一部分的位數可以不同),然後取這幾部分的疊加和(捨去進位)作為哈希地址。取模法:取關鍵字被某個不大於散列表表長 m 的數 p 除後所得的餘數為散列地址。即 hash(key) = key % p(p<= M),不僅可以對關鍵字直接取模,也可在摺疊法、平方取中法等運算之後取模。對 p 的選擇很重要,一般取素數或 m,若 p 選擇不好,容易產生衝突。緩存系統負載均衡

在分布式集群緩存的負載均衡實現中,比如 memcached 緩存集群,需要把緩存數據的 key 利用哈希函數散列,這樣緩存數據能夠均勻分布到各個分布式存儲節點上,要實現這樣的負載均衡一般可以用哈希算法來實現。下圖演示了這一分布式存儲過程:

普通哈希算法負載均衡

前面我們介紹過各種散列方法,不管是選擇上述哪種散列方法,在這個應用場景下,都是要把緩存數據利用哈希函數均勻的映射到伺服器集群上,我們就選擇簡單的「取模法」來說明這個過程。

假設有 3 個伺服器節點編號 [0 - 2],6 個緩存鍵值對編號 [1 - 6],則完成哈希映射之後,三個緩存數據映射情況如下:

哈希計算公式:key % 節點總數 = Hash節點下標1 % 3 = 12 % 3 = 23 % 3 = 04 % 3 = 15 % 3 = 26 % 3 = 0

每個連接都均勻的分散到了三個不同的伺服器節點上,看起來很完美!

但是,在分布式集群系統的負載均衡實現上,這種模型有兩個問題:

1. 擴展能力差

為了動態調節服務能力,服務節點經常需要擴容縮容。打個比方,如果是電商服務,雙十一期間的服務機器數量肯定要比平常大很多,新加進來的機器會使原來計算的哈希值不準確,為了達到負載均衡的效果,要重新計算並更新哈希值,對於更新後哈希值不一致的緩存數據,要遷移到更新後的節點上去。

假設新增了 1 個伺服器節點,由原來的 3 個服務節點變成 4 個節點編號 [0 - 3],哈希映射情況如下:

哈希計算公式:key % 節點總數 = Hash節點下標1 % 4 = 12 % 4 = 23 % 4 = 34 % 4 = 05 % 4 = 16 % 4 = 2

可以看到後面三個緩存 key :4、5、6 對應的存儲節點全部失效了,這就需要把這幾個節點的緩存數據遷移到更新後的節點上 (費時費力) ,也就是由原來的節點 [1, 2, 0] 遷移到節點 [0, 1, 2],遷移後存儲示意圖如下:

2. 容錯能力不佳

線上環境服務節點雖然有各種高可用性保證,但還是是有宕機的可能,即使沒有宕機也有縮容的需求。不管是宕機和縮容都可以歸結為服務節點刪除的情況,下面分析下服務節點刪除對負載均衡哈希值的影響。

假設刪除 1 個伺服器節點,由最初的 3 個服務節點變成 2 個,節點編號 [0 - 1],哈希映射情況如下:

哈希計算公式:key % 節點總數 = Hash節點下標1 % 2 = 12 % 2 = 03 % 2 = 14 % 2 = 05 % 2 = 16 % 2 = 0

下圖展示普通哈希負載均衡算法在一個節點宕機時候,導致的的緩存數據遷移分布情況:

如圖所見,在這個例子中,僅僅刪除了一個服務節點,也導致了哈希值的大面積更新,哈希值的更新也是意味著節點緩存數據的遷移(緩存數據表示心好累)。

一致性哈希算法負載均衡

正是由於普通哈希算法實現的緩存負載均衡存在擴展能力和容錯能力差問題,所以我們引入一致性哈希算法,那麼什麼是一致性哈希呢?先來看下wiki上對一致性Hash的定義

一致哈希由 MIT 的 David Karger 及其合作者提出,現在這一思想已經擴展到其它領域。在這篇1997年發表的學術論文中介紹了一致哈希如何應用於用戶易變的分布式Web服務中。一致哈希也可用於實現健壯緩存來減少大型Web應用中系統部分失效帶來的負面影響。

這篇描述一致性哈希的論文發表於1997年,閱讀無障礙的同學可以直接看看大佬的論文理解更深刻,附上論文下載連結:http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.147.1879

一句話概括一致性哈希:就是普通取模哈希算法的改良版,哈希函數計算方法不變,只不過是通過構建環狀的 Hash 空間代替普通的線性 Hash 空間。具體做法如下:

首先,選擇一個足夠大的Hash空間(一般是 0 ~ 2^32)構成一個哈希環。

然後,對於緩存集群內的每個存儲伺服器節點計算 Hash 值,可以用伺服器的 IP 或 主機名計算得到哈希值,計算得到的哈希值就是服務節點在 Hash 環上的位置。

最後,對每個需要存儲的數據 key 同樣也計算一次哈希值,計算之後的哈希也映射到環上,數據存儲的位置是沿順時針的方向找到的環上的第一個節點。下圖舉例展示了節點存儲的數據情況,我們下面的說明也是基於目前的存儲情況來展開。

原理講完了,來看看為什麼這樣的設計能解決上面普通哈希的兩個問題

擴展能力提升

前面我們分析過,普通哈希算法當需要擴容增加服務節點的時候,會導致原油哈希映射大面積失效。現在,我們來看下一致性哈希是如何解決這個問題的。

如下圖所示,當緩存服務集群要新增一個節點node3時,受影響的只有 key3 對應的數據 value3,此時只需把 value3 由原來的節點 node0 遷移到新增節點 node3 即可,其餘節點存儲的數據保持不動

容錯能力提升

普通哈希算法當某一服務節點宕機下線,也會導致原來哈希映射的大面積失效,失效的映射觸發數據遷移影響緩存服務性能,容錯能力不足。一起來看下一致性哈希是如何提升容錯能力的。

如下圖所示,假設 node2 節點宕機下線,則原來存儲於 node2 的數據 value2 和 value5 ,只需按順時針方向選擇新的存儲節點 node0 存放即可,不會對其他節點數據產生影響。一致性哈希能把節點宕機造成的影響控制在順時針相鄰節點之間,避免對整個集群造成影響

一致性哈希優化

存在的問題

上面展示了一致性哈希如何解決普通哈希的擴展和容錯問題,原理比較簡單,在理想情況下可以良好運行,但在實際使用中還有一些實際問題需要考慮,下面具體分析。

數據傾斜

試想一下若緩存集群內的服務節點比較少,就像我們例子中的三個節點,而哈希環的空間又有很大(一般是 0 ~ 2^32),這會導致什麼問題呢?

可能的一種情況是,較少的服務節點哈希值聚集在一起,比如下圖所示這種情況 node0 、node1、node2 聚集在一起,緩存數據的 key 哈希都映射到 node2 的順時針方向,數據按順時針尋找存儲節點就導致全都存儲到 node0 上去,給單個節點很大的壓力!這種情況稱為數據傾斜

節點雪崩

數據傾斜和節點宕機都可能會導致緩存雪崩。

拿前面數據傾斜的示例來說,數據傾斜導致所有緩存數據都打到 node0 上面,有可能會導致 node0 不堪重負被壓垮了,node0 宕機,數據又都打到 node1 上面把 node1 也打垮了,node1 也被打趴傳遞給 node2,這時候故障就像像雪崩時滾雪球一樣越滾越大

還有一種情況是節點由於各種原因宕機下線。比如下圖所示的節點 node2 下線導致原本在node2 的數據壓到 node0 , 在數據量特別大的情況下也可能導致節點雪崩,具體過程就像剛才的分析一樣。

總之,連鎖反應導致的整個緩存集群不可用,就稱為節點雪崩

虛擬節點

那該如何解決上述兩個棘手的問題呢?可以通過「虛擬節點」的方式解決。

所謂虛擬節點,就是對原來單一的物理節點在哈希環上虛擬出幾個它的分身節點,這些分身節點稱為「虛擬節點」。打到分身節點上的數據實際上也是映射到分身對應的物理節點上,這樣一個物理節點可以通過虛擬節點的方式均勻分散在哈希環的各個部分,解決了數據傾斜問題

由於虛擬節點分散在哈希環各個部分,當某個節點宕機下線,他所存儲的數據會被均勻分配給其他各個節點,避免對單一節點突發壓力導致的節點雪崩問題。

下圖展示了虛擬節點的哈希環分布,其中左邊是沒做虛擬節點情況下的節點分布,右邊背景色綠色兩個的 node0 節點是 node0 節點的虛擬節點;背景色紅色的 node1 節點是 node1 的虛擬節點。

總結一下

本文首先介紹了什麼是哈希算法和常見的哈希算法,以及常見散列方式,接著說明基於普通哈希算法的緩存負載均衡實現,並舉例說明普通算法的擴展性和容錯性方便存在的問題。

為了解決普通算法的擴展性和容錯性問題引入一致性哈希算法,圖解和舉例分析了一致性哈希是如何提高擴展性和容錯性。最後粗糙的一致性哈希算法也存在數據傾斜和節點雪崩的問題,講解了如何利用虛擬節點優化一致性哈希算法,解決數據傾斜和雪崩問題。至此,一致性哈希你學會了嗎?

再聊兩句(求三連)

感謝各位的閱讀,文章的目的是分享對知識的理解,技術類文章我都會反覆求證以求最大程度保證準確性,若文中出現明顯紕漏也歡迎指出,我們一起在探討中學習。

最後,咱給小編:

1. 點讚+評論

2. 點頭像關注,轉發給有需要的朋友。

謝謝!!

相關焦點

  • 圖解什麼是一致性哈希算法
    一致性,咱懂哈希算法,咱也懂一致性+哈希算法  什麼鬼?從定義可以知道,一致性哈希是一種特殊的哈希算法,區別於哈希取模,這種特殊的哈希算法實現了少量數據的遷移,避免了幾乎全部數據的移動,這樣就解決了普通hash取模的動態調整帶來的全量數據變動。這個有點厲害了,趕緊看看是咋實現的。
  • 什麼是一致性哈希算法
    這裡主要記錄一致性Hash算法如何將數據分配到各個機器中去。2,衡量一致性哈希算法好處的四個標準①平衡性。平衡性是指哈希的結果能夠儘可能分布到所有的緩衝中去,這樣可以使得所有的緩衝空間都得到利用。②單調性。
  • 一文搞懂負載均衡中的一致性哈希算法
    不同領域場景不同,需要顧及的因素也有所差異,本文主要討論在負載均衡中一致性哈希算法的設計。在介紹一致性哈希算法之前,我將會介紹一些哈希算法,討論它們的區別和使用場景。也會給出一致性哈希算法的 Java 通用實現,可以直接引用,文末會給出 github 地址。
  • Ceph殺手鐧CRUSH和主流分布式存儲一致性哈希算法
    PG:相當於一致性哈希算法裡的虛擬節點,做為Object的歸置組。OSD:真正的存儲組件,OSD一般和磁碟一一對應,處理存儲磁碟上的讀/寫操作。一致性哈希算法(Consistent Hashing)先簡單了解下一致性哈希算法(ConsistentHashing),和CRUSH算法有共同之處。
  • 面試時遇到一致性哈希算法這樣回答會讓面試官眼前一亮
    面試中一致性哈希算法被問到的概率非常大,本文將從如下三個方面探探一致性哈希算法,讓大家輕鬆應對面試,並且說出與眾不同的答案。一致性哈希算法經典實用場景一致性哈希算法通常不適合用於服務類負載均衡面試應對之策1、一致性哈希算法經典使用場景在資料庫存儲領域如果單表數據量很大,通常會採用分庫分表,在緩存領域同樣需要分庫,下面以一個非常常見的Redis分庫架構為例進行闡述。
  • 五分鐘帶你了解哈希算法
    >其中一個初始哈希算法標準是MD5哈希,這是被廣泛用來進行文件整合驗證,而且存儲哈希密碼在網頁應用資料庫。而且,對於現在網頁的早期使用,還可以在網絡上創建很多MD5的預圖形,如果搜索哈希,就可以在谷歌上很容易找到。開始:SHA1 &SHA2NAS被稱為哈希算法標準的先驅,最初的想法是安全哈希算法或者SHA1,創建了160固定長度的輸出。
  • 面試必備:什麼是一致性Hash算法?
    最近有小夥伴跑過來問什麼是Hash一致性算法,說面試的時候被問到了,因為不了解,所以就沒有回答上
  • 什麼是哈希算法
    這些算法可以分成普通哈希和加密哈希算法,兩種算法之間沒有特別明顯的區別。例如本來 MD5 就是設計出來做加密哈希的,但是後來由於計算機的發展 MD5 出現碰撞的可能性就很大了,所以目前 MD5 只能當普通哈希用,用來做數據校驗。
  • 關於哈希算法,必須了解這三點
    任意輸入值(Message)的二進位編碼經過哈希函數計算後,可以得出n比特的一個0、1字符串的哈希值,在不同算法中n的取值可能不同,例如128、160、192、256、384或512等。哈希算法在區塊鏈技術中得到了廣泛的應用,各個區塊之間通過哈希指針連接形成區塊鏈,每個區塊的完整性檢驗將以哈希運算的方式進行。
  • 和你聊聊哈希算法
    和你聊聊哈希算法1.1 引言哈希算法又稱散列函數算法,是一種查找算法,應該說哈希算法是最快的查找算法,沒有之一。對於查找問題,哈希算法一直是首選算法。那麼,為什麼名字起的這麼「嘻哈」的算法會如此強大,本文將為你揭開謎底。
  • 哈希算法現狀——原因、方法及未來
    新手在了解區塊鏈的時候經常會接觸到哈希(hash)和哈希算法(hashing algorithm)這樣的概念,它們在安全方面可以說是無處不在。通過P2P運行像比特幣,以太坊之類有眾多節點的去中心化網絡需要去信任機制和驗證的高效性。這就是說,這些系統需要想辦法將信息以一種高效而簡潔的方式編碼,並允許其參與者能夠安全而快速的進行驗證。
  • Hash(哈希)算法科普
    單向散列函數算法也稱Hash(哈希)算法,是一種將任意長度的消息壓縮到某一固定長度(消息摘要)的函數(該過程不可逆)。
  • 千萬級高並發之Redis集群的一致性Hash算法?看完就明白了
    redis存在的問題,所有的緩存數據是分散存放在各個Redis節點上的,通過客戶端實現路由算法,來將某個key路由到某個具體的節點。下面簡單的了解下 hash算法一致性Hash概述為了能直觀的理解一致性hash原理,這裡結合一個簡單的例子來講解,假設有4臺伺服器,地址為ip1,ip2,ip3,ip4。
  • 理解數字籤名、加密通信的關鍵:哈希算法
    首先說哈希算法有很多種,例如 md5 ,SHA256 等等,但是它們總體上可以分為兩大類,一類是普通哈希,另外一類是加密哈希,cryptographic hash function 。  業界可以找到的哈希算法是有很多種的。我們可以大致按照輸出的哈希的長度來聊,雖然哈希算法的安全性也不單單是跟哈希長度有關,但是一般哈希值越長也就是越安全。
  • 面試官讓我利用哈希算法、布隆過濾器設計一個短鏈系統
    本文將會從以下幾個方面來講解,每個點包含的信息量都不少,相信大家看完肯定有收穫註:裡面涉及到不少布隆過濾器,snowflake 等技術,由於不是本文重點,所以建議大家看完後再自己去深入了解,不然展開講篇幅會很長短鏈有啥好處,用長鏈不香嗎
  • 淺談區塊鏈分布式一致性算法 ,和「唐盛鏈」GEAR共識機制
    Paxos算法Paxos算法是萊斯利·蘭伯特(Leslie Lamport)1990年提出的一種基於消息傳遞的一致性算法,其解決的問題是分布式系統如何就某個值(決議)達成一致。從工程實踐的意義上來說,通過Paxos可以實現多副本一致性、分布式鎖、名字管理、序列號分配等。
  • 安全幣SRC——採用6種哈希算法組合方式加密
    金色財經訊——安全幣簡稱SRC(英文名SecureCoin)顧名思義其被命名為安全幣,主要因為其進行對數據的加密採用6種哈希算法組合的方式,開發團隊表示其是最安全的虛擬貨幣。安全幣的誕生在2013.8.9安全幣其開發團隊正式發布安全幣,安全幣一個區塊的產生時間是一分鐘,每個區塊提供獎勵數是五。
  • PHP哈希表碰撞攻擊原理
    可以看到,進行哈希碰撞攻擊的前提是哈希算法特別容易找出碰撞,如果是MD5或者SHA1那基本就沒戲了,幸運的是(也可以說不幸的是)大多數程式語言使用的哈希算法都十分簡單(這是為了效率考慮),因此可以不費吹灰之力之力構造出攻擊數據。下一節將通過分析Zend相關內核代碼,找出攻擊哈希表碰撞攻擊PHP的方法。
  • 區塊鏈的三個「天然缺陷」|區塊鏈技術|算法|程式語言|哈希_網易科技
    比特幣全網算力是47073540.92 TH/s目前,比特幣全網算力是47073540.92 TH/s,市面上最常見的礦機是比特大陸的螞蟻S9礦機,官方給出的這臺礦機的額定算力時14.5TH/s,簡單算個除法,結果就是全球比特幣網絡運行著
  • 哈希函數
    如果能預先建立表中關鍵字Key與其存儲位置之間的函數,即元素的存儲位置是其關鍵字的函數f(key)的值,那麼查找過程就可以實現。>((7k)MOD 10 +1) (i=1, 2,3,…)的開放地址法處理衝突,試在0—10的散列地址空間中對關鍵字序列(22