一條數據的HBase之旅,簡明HBase入門教程-開篇

2021-01-10 NoSQL漫談

一些常見的HBase新手問題:什麼樣的數據適合用HBase來存儲?既然HBase也是一個資料庫,能否用它將現有系統中昂貴的Oracle替換掉?存放於HBase中的數據記錄,為何不直接存放於HDFS之上?能否直接使用HBase來存儲文件數據?Region(HBase中的數據分片)遷移後,數據是否也會被遷移?為何基於Spark/Hive分析HBase數據時性能較差?

NoSQL漫談

開篇

用慣了Oracle/MySQL的同學們,心目中的數據表,應該是長成這樣的:

Table For RDBMS

這種表結構規整,每一行都有固定的列構成,因此,非常適合結構化數據的存儲。但在NoSQL領域,數據表的模樣卻往往換成了另外一種"畫風":

Table For NoSQL

行由看似"雜亂無章"的列組成,行與行之間也無須遵循一致的定義,而這種定義恰好符合半結構化數據或非結構化數據的特點。本文所要講述的HBase,就屬於該派系的一個典型代表。這些"雜亂無章"的列所構成的多行數據,被稱之為一個"稀疏矩陣",而上圖中的每一個"黑塊塊",在HBase中稱之為一個KeyValue。

Apache HBase官方給出了這樣的定義:

Apache HBase is the Hadoop database, a distributed, scalable, big data store.

即:Apache HBase是基於Hadoop構建的一個分布式的、可伸縮的海量數據存儲系統。

HBase常被用來存放一些海量的(通常在TB級別以上)結構比較簡單的數據,如歷史訂單記錄,日誌數據,監控Metris數據等等,HBase提供了簡單的基於Key值的快速查詢能力。

HBase在國內市場已經取得了非常廣泛的應用,在搜尋引擎中,也可以看出來,HBase在國內呈現出了逐年上升的勢態:

百度指數HBase搜索結果

從Apache HBase所關聯的github項目的commits統計信息來看,也可以看出來該項目非常活躍:

開發活躍度Github Commits

(需要說明的一點:HBase中的每一次commit,都已經過社區Commiter成員嚴格的Review,在commit之前,一個Patch可能已經被修改了幾十個版本)

令人欣喜的是,國內的開發者也積極參與到了HBase社區貢獻中,而且被社區接納了多名PMC以及Committer成員。

本文將以一條數據在HBase中的「旅程」為線索,介紹HBase的核心概念與流程,幾乎每一部分都可以展開成一篇獨立的長文,但本文旨在讓讀者能夠快速的了解HBase的架構輪廓,所以很多特性/流程被被一言帶過,但這些特性在社區中往往經歷了漫長的開發過程。至於講什麼以及講到什麼程度,本文都做了艱難的取捨,在講解的過程中,將會穿插解答本文開始所提出的針對初學者的一些常見問題。

本文適用於HBase新手,而對於具備一定經驗的HBase開發人員,相信本文也可以提供一些有價值的參考。本文內容基於HBase 2.0 beta 2版本,對比於1.0甚至是更早期的版本,2.0出現了大量變化,下面這些問題的答案將揭示部分關鍵的變化(新手可以直接跳過這些問題):

HBase meta Region在哪裡提供服務?HBase是否可以保證單行操作的原子性?Region中寫WAL與寫MemStore的順序是怎樣的?你是否遇到過Region長時間處於RIT的狀態? 你認為舊版本中Assignment Manager的主要問題是什麼?在面對Full GC問題時,你嘗試做過哪些優化?你是否深究過HBase Compaction帶來的「寫放大」有多嚴重?HBase的RPC框架存在什麼問題?導致查詢時延毛刺的原因有哪些?

本系列文章的整體行文思路如下:

介紹HBase數據模型基於數據模型介紹HBase的適用場景快速介紹集群關鍵角色以及集群部署建議示例數據介紹寫數據流程讀數據流程數據更新負載均衡機制HBase如何存儲小文件數據

這些內容將會被拆成幾篇文章。至於集群服務故障的處理機制,集群工具,周邊生態,性能調優以及最佳實踐等進階內容,暫不放在本系列文章範疇內。

約定

1. 本文範圍內針對一些關鍵特性/流程,使用了加粗以及加下劃線的方式做了強調,如"ProcedureV2"。這些特性往往在本文中僅僅被粗淺提及,後續計劃以獨立的文章來介紹這些特性/流程。

2. 術語縮寫:對於一些進程/角色名稱,在本文範圍內可能通過縮寫形式來表述:

術語縮寫

數據模型

RowKey

用來表示唯一一行記錄的主鍵,HBase的數據是按照RowKey的字典順序進行全局排序的,所有的查詢都只能依賴於這一個排序維度。

通過下面一個例子來說明一下"字典排序"的原理:RowKey列表{"abc", "a", "bdf", "cdf", "defg"}按字典排序後的結果為{"a", "abc", "bdf", "cdf", "defg"}也就是說,當兩個RowKey進行排序時,先對比兩個RowKey的第一個字節,如果相同,則對比第二個字節,依此類推...如果在對比到第M個字節時,已經超出了其中一個RowKey的字節長度,那麼,短的RowKey要被排在另外一個RowKey的前面。

稀疏矩陣

參考了Bigtable,HBase中一個表的數據是按照稀疏矩陣的方式組織的,"開篇"部分給出了一張關於HBase數據表的抽象圖,我們再結合下表來加深大家關於"稀疏矩陣"的印象:

稀疏矩陣

看的出來:每一行中,列的組成都是靈活的,行與行之間並不需要遵循相同的列定義, 也就是HBase數據表"schema-less"的特點。

Region

區別於Cassandra/DynamoDB的"Hash分區"設計,HBase中採用了"Range分區",將Key的完整區間切割成一個個的"Key Range" ,每一個"Key Range"稱之為一個Region。

也可以這麼理解:將HBase中擁有數億行的一個大表,橫向切割成一個個"子表",這一個個"子表"就是Region:

Region

Region是HBase中負載均衡的基本單元,當一個Region增長到一定大小以後,會自動分裂成兩個。

Column Family

如果將Region看成是一個表的橫向切割,那麼,一個Region中的數據列的縱向切割,稱之為一個Column Family。每一個列,都必須歸屬於一個Column Family,這個歸屬關係是在寫數據時指定的,而不是建表時預先定義。

Column Family

KeyValue

KeyValue的設計不是源自Bigtable,而是要追溯至論文"The log-structured merge-tree(LSM-Tree)"。每一行中的每一列數據,都被包裝成獨立的擁有特定結構的KeyValue,KeyValue中包含了豐富的自我描述信息:

KeyValue

看的出來,KeyValue是支撐"稀疏矩陣"設計的一個關鍵點:一些Key相同的任意數量的獨立KeyValue就可以構成一行數據。但這種設計帶來的一個顯而易見的缺點:每一個KeyValue所攜帶的自我描述信息,會帶來顯著的數據膨脹。

適用場景

在介紹完了HBase的數據模型以後,我們可以回答本文一開始的前兩個問題:

什麼樣的數據適合用HBase來存儲?既然HBase也是一個資料庫,能否用它將現有系統中昂貴的Oracle替換掉?

HBase的數據模型比較簡單,數據按照RowKey排序存放,適合HBase存儲的數據,可以簡單總結如下:

以實體為中心的數據實體可以包括但不限於如下幾種:

自然人/帳戶/手機號/車輛相關數據用戶畫像數據(含標籤類數據)圖數據(關係類數據)

描述這些實體的,可以有基礎屬性信息、實體關係(圖數據)、所發生的事件(如交易記錄、車輛軌跡點)等等。

以事件為中心的數據

監控數據時序數據實時位置類數據消息/日誌類數據

上面所描述的這些數據,有的是結構化數據,有的是半結構化或非結構化數據。HBase的「稀疏矩陣」設計,使其應對非結構化數據存儲時能夠得心應手,但在我們的實際用戶場景中,結構化數據存儲依然佔據了比較重的比例。由於HBase僅提供了基於RowKey的單維度索引能力,在應對一些具體的場景時,依然還需要基於HBase之上構建一些專業的能力,如:

OpenTSDB 時序數據存儲,提供基於Metrics+時間+標籤的一些組合維度查詢與聚合能力GeoMesa 時空數據存儲,提供基於時間+空間範圍的索引能力JanusGraph 圖數據存儲,提供基於屬性、關係的圖索引能力

HBase擅長於存儲結構簡單的海量數據但索引能力有限,而Oracle等傳統關係型資料庫(RDBMS)能夠提供豐富的查詢能力,但卻疲於應對TB級別的海量數據存儲,HBase對傳統的RDBMS並不是取代關係,而是一種補充。

HBase與HDFS

我們都知道HBase的數據是存儲於HDFS裡面的,相信大家也都有這麼的認知:

HBase是一個分布式資料庫,HDFS是一個分布式文件系統

理解了這一點,我們先來粗略回答本文已開始提出的其中兩個問題:

3. HBase中的數據為何不直接存放於HDFS之上?HBase中存儲的海量數據記錄,通常在幾百Bytes到KB級別,如果將這些數據直接存儲於HDFS之上,會導致大量的小文件產生,為HDFS的元數據管理節點(NameNode)帶來沉重的壓力。4. 文件能否直接存儲於HBase裡面?如果是幾MB的文件,其實也可以直接存儲於HBase裡面,我們暫且將這類文件稱之為小文件,HBase提供了一個名為MOB的特性來應對這類小文件的存儲。但如果是更大的文件,強烈不建議用HBase來存儲,關於這裡更多的原因,希望你在詳細讀完本系列文章所有內容之後能夠自己解答。

集群角色

關於集群環境,你可以使用國內外大數據廠商的平臺,如Cloudera,Hontonworks以及國內的華為,都發行了自己的企業版大數據平臺,另外,華為雲、阿里雲中也均推出了全託管式的HBase服務。

我們假設集群環境已經Ready了,先來看一下集群中的關鍵角色:

集群角色

相信大部分人對這些角色都已經有了一定程度的了解,我們快速的介紹一下各個角色在集群中的主要職責:

ZooKeeper在一個擁有多個節點的分布式系統中,假設,只能有一個節點是主節點,如何快速的選舉出一個主節點而且讓所有的節點都認可這個主節點?這就是HBase集群中存在的一個最基礎命題。利用ZooKeeper就可以非常簡單的實現這類"仲裁"需求,ZooKeeper還提供了基礎的事件通知機制,所有的數據都以 ZNode的形式存在,它也稱得上是一個"微型資料庫"。NameNodeHDFS作為一個分布式文件系統,自然需要文件目錄樹的元數據信息,另外,在HDFS中每一個文件都是按照Block存儲的,文件與Block的關聯也通過元數據信息來描述。NameNode提供了這些元數據信息的存儲。DataNodeHDFS的數據存放節點。RegionServerHBase的數據服務節點。MasterHBase的管理節點,通常在一個集群中設置一個主Master,一個備Master,主備角色的"仲裁"由ZooKeeper實現。 Master主要職責:①負責管理所有的RegionServer。②建表/修改表/刪除表等DDL操作請求的服務端執行主體。③管理所有的數據分片(Region)到RegionServer的分配。④如果一個RegionServer宕機或進程故障,由Master負責將它原來所負責的Regions轉移到其它的RegionServer上繼續提供服務。⑤Master自身也可以作為一個RegionServer提供服務,該能力是可配置的。

集群部署建議

如果基於物理機/虛擬機部署,通常建議:

部署建議

1. RegionServer與DataNode聯合部署,RegionServer與DataNode按1:1比例設置。

這種部署的優勢在於,RegionServer中的數據文件可以存儲一個副本於本機的DataNode節點中,從而在讀取時可以利用HDFS中的"短路徑讀取(Short Circuit)"來繞過網絡請求,降低讀取時延。

2. 管理節點獨立於數據節點部署

如果是基於物理機部署,每一臺物理機節點上可以設置幾個RegionServers/DataNodes來提升資源使用率。

也可以選擇基於容器來部署,如在HBaseCon Asia 2017大會知乎的演講主題中,就提到了知乎基於Kubernetes部署HBase服務的實踐。

對於公有雲HBase服務而言,為了降低總體擁有成本(TCO),通常選擇"計算與存儲物理分離"的方式,從架構上來說,可能導致平均時延略有下降,但可以藉助於共享存儲底層的IO優化來做一些"彌補"。

HBase集群中的RegionServers可以按邏輯劃分為多個Groups,一個表可以與一個指定的Group綁定,可以將RegionServer Group理解成將一個大的集群劃分成了多個邏輯子集群,藉此可以實現多租戶間的隔離,這就是HBase中的RegionServer Group特性。

示例數據

以我們日常生活都熟悉的一類數據的存儲為例,先簡單給出示例數據的欄位定義:

欄位定義

本文力求簡潔,僅給出了幾個簡單的欄位。如下是"虛構"的樣例數據:

數據樣例

在本文大部分內容中所涉及的一條數據,是上面加粗的最後一行"Mobile1"為"13400006666"這行記錄。

寫數據之前:創建連接

Login

在啟用了安全特性的前提下,Login階段是為了完成用戶認證(確定用戶的合法身份),這是後續一切安全訪問控制的基礎。

當前Hadoop/HBase僅支持基於Kerberos的用戶認證,ZooKeeper除了Kerberos認證,還能支持簡單的用戶名/密碼認證,但都基於靜態的配置,無法動態新增用戶。如果要支持其它第三方認證,需要對現有的安全框架做出比較大的改動。

創建Connection

Connection可以理解為一個HBase集群連接的抽象,建議使用ConnectionFactory提供的工具方法來創建。因為HBase當前提供了兩種連接模式:同步連接,異步連接,這兩種連接模式下所創建的Connection也是不同的。我們給出ConnectionFactory中關於獲取這兩種連接的典型方法定義:

Create Connection API

Connection中主要維護著兩類共享的資源:

線程池Socket連接

這些資源都是在真正使用的時候才會被創建,因此,此時的連接還只是一個"虛擬連接"。

寫數據之前:創建數據表

DDL操作的抽象接口 - Admin

Admin定義了常規的DDL接口,列舉幾個典型的接口:

Admin

預設合理的數據分片 - Region

分片數量會給讀寫吞吐量帶來直接的影響,因此,建表時通常建議由用戶主動指定劃分Region分割點,來設定Region的數量。

HBase中數據是按照RowKey的字典順序排列的,為了能夠劃分出合理的Region分割點,需要依據如下幾點信息:

Key的組成結構Key的數據分布預估如果不能基於Key的組成結構來預估數據分布的話,可能會導致數據在Region間的分布不均勻讀寫並發度需求依據讀寫並發度需求,設置合理的Region數量

為表定義合理的Schema

既然HBase號稱"schema-less"的數據存儲系統,那何來的是"schema "?的確,在資料庫範式的支持上,HBase非常弱,這裡的"schema",主要指如下一些信息的設置:

1. NameSpace設置

2. Column Family的數量

3. 每一個Column Family中所關聯的一些關鍵配置:

① Compression

HBase當前可以支持Snappy,GZ,LZO,LZ4,Bzip2以及ZSTD壓縮算法

② DataBlock Encoding

HBase針對自身的特殊數據模型所做的一種壓縮編碼

③ BloomFilter

可用來協助快速判斷一條記錄是否存在

④ TTL

指定數據的過期時間

⑤ StoragePolicy

指定Column Family的存儲策略,可選項有:"ALL_SSD","ONE_SSD","HOT","WARM","COLD","LAZY_PERSIST"

HBase中並不需要預先設置Column定義信息,這就是HBase schema less設計的核心。

Client發送建表請求到Master

建表的請求是通過RPC的方式由Client發送到Master:

RPC接口基於Protocol Buffer定義建表相關的描述參數,也由Protocol Buffer進行定義及序列化

Client端側調用了Master服務的什麼接口,參數是什麼,這些信息都被通過RPC通信傳輸到Master側,Master再依據這些接口參數描述信息決定要執行的操作。2.0版本中,HBase目前已經支持基於Netty的異步RPC框架。

關於HBase RPC框架早期的HBase RPC框架,完全借鑑了Hadoop中的實現,那時,Netty項目尚不盛行。

Master側接收到Client側的建表請求以後,一些主要操作包括:

1. 生成每一個Region的描述信息對象HRegionInfo,這些描述信息包括:Region ID, Region名稱,Key範圍,表名稱等信息。

2. 生成每一個Region在HDFS中的文件目錄。

3. 將HRegionInfo信息寫入到記錄元數據的hbase:meta表中。

說明meta表位於名為"hbase"的namespace中,因此,它的全稱為"hbase:meta"。但在本系列文章範疇內,常將其縮寫為"meta"。

整個過程中,新表的狀態也是記錄在hbase:meta表中的,而不用再存儲在ZooKeeper中。

如果建表執行了一半,Master進程故障,如何處理?這裡是由HBase自身提供的一個名為Procedure(V2)的框架來保障操作的事務性的,備Master接管服務以後,將會繼續完成整個建表操作。

一個被創建成功的表,還可以被執行如下操作:

Disable 將所有的Region下線,該表暫停讀寫服務Enable 將一個Disable過的表重新Enable,也就是上線所有的Region來正常提供讀寫服務Alter 更改表或列族的描述信息

Master分配Regions

新創建的所有的Regions,通過AssignmentManager將這些Region按照輪詢(Round-Robin)的方式分配到每一個RegionServer中,具體的分配計劃是由LoadBalancer來提供的。

AssignmentManager負責所有Regions的分配/遷移操作,Master中有一個定時運行的線程,來檢查集群中的Regions在各個RegionServer之間的負載是否是均衡的,如果不均衡,則通過LoadBalancer生成相應的Region遷移計劃,HBase中支持多種負載均衡算法,有最簡單的僅考慮各RegionServer上的Regions數目的負載均衡算法,有基於遷移代價的負載均衡算法,也有數據本地化率優先的負載均衡算法,因為這一部分已經提供了插件化機制,用戶也可以自定義負載均衡算法。

總結

本文主要介紹了如下內容:

1. HBase項目概述,呈現了HBase社區的活躍度以及搜尋引擎熱度等信息

2. HBase數據模型部分,講到了RowKey,稀疏矩陣,Region,Column Family,KeyValue等概念

3. 基於HBase的數據模型,介紹了HBase的適合場景(以實體/事件為中心的簡單結構的數據)

4. 介紹了HBase與HDFS的關係

5. 介紹了集群的關鍵角色:ZooKeeper, Master, RegionServer,NameNode, DataNode

6. 集群部署建議

7. 給出了一些示例數據

8. 寫數據之前的準備工作:建立集群連接,建表(建表時應該定義合理的Schema以及設置合理的Region數量),建表由Master處理,新創建的Regions由Region AssignmentManager負責分配到各個RegionServer。

下一篇文章將正式開始介紹寫數據的流程。

本文作者:畢傑山

致謝

感謝Apache HBase PMC成員Ted Yu,李鈺,張鐸對本文中與2.0版本相關特性/流程描述內容方面的Review。感謝畢美傑為本文提供的漂亮的封面圖片。

關於"NoSQL漫談"(歡迎關注我們)

NoSQL主要泛指一些分布式的非關係型數據存儲技術,這其實是一個非常廣泛的定義,可以說涉及到分布式系統技術的方方面面。隨著人工智慧、物聯網、大數據、雲計算以及區塊鏈技術的不斷普及,NoSQL技術將會發揮越來越大的價值。

相關焦點

  • HBase基礎概念知識學習之物理機制了解
    1、存儲單元cell:rowkey+列簇+timestamp+版本,唯一確定一個單元格的值,2、數據無類型,以字節碼形式存儲比如輸入中文數據也是可以的put 'tt','10003','info:age','今天'
  • Accordion:HBase 「呼吸式」內存壓縮算法
    最上面是一個可變內存存儲,稱為MemStore ,接收最新Put進來的數據。其餘的是不變的HDFS文件,稱為HFile 。一旦MemStore寫滿,它將被刷新到磁碟,從而創建一個新的HFile。HBase採用多版本並發控制,也就是說,MemStore將所有修改後的數據存儲為獨立版本。因此,一條數據的多個版本同時駐留在MemStore和HFile層中。
  • 大數據基礎知識:Hadoop分布式系統介紹
    隨著智能化、萬物互聯時代的快速發展,數據量開始暴增,一方面我們需要開始思考如何高效可靠地存儲海量的數據,另一方面我們還需要對這些數據進行分析處理,以獲得更多有價值的信息。這時期我們就需要用到Hadoop了。
  • JAVA 經典面試題:ES如何做到億級數據查詢毫秒級返回?
    ,做到毫秒級數據查詢呢?其實,僅僅寫入 elasticsearch 中要用來檢索的少數幾個欄位就可以了,比如說就寫入 es id,name,age 三個欄位,然後你可以把其他的欄位數據存在 mysql/hbase 裡,我們一般是建議用 elasticsearch + hbase 這麼一個架構。
  • 《熱分析簡明教程》出版
    歷經近2年時間的辛勤勞動,2012年8月底,《熱分析簡明教程》一書由科學出版社出版面世。
  • Mathematica數學入門教程【6】 - 幾何圖形
  • Hadoop是低成本的大數據解決方案?別逗了!
    Hadoop是當下流行的大數據並行計算體系,橫向擴展、生態圈成熟等一直是它的主要特點。但這些特點當中,絕對不包含廉價。 可能你認為的低成本,實際上只是硬體和軟體授權成本,而不是總體成本。在學習成本、開發成本、管理成本上Hadoop並不總是佔優。現在伴隨公有雲技術的成熟,Hadoop甚至連硬體成本也不佔優了。
  • 直播預告 |《簡明的 TensorFlow 2》作者分享
    但是對於初學者來說,TensorFlow 往往給人留下「入門門檻高」的刻板印象。有鑑於此,去年 10 月推出的 TensorFlow 2 在易用性上進行了大幅改進,並進一步強化了其在性能和生態上的巨大優勢。
  • 【大數據】最新大數據學習路線(完整詳細版】
    大數據學習路線java(Java se,javaweb)Linux(shell,高並發架構,lucene,solr)Hadoop(Hadoop,HDFS,Mapreduce,yarn,hive,hbase,sqoop,zookeeper,flume)機器學習(R,mahout)Storm(Storm,kafka
  • 為什麼說,大數據是從流式計算開始切入的?
    大數據說了很多年,我說雷聲大,雨點小,這您同意嗎?為什麼?關鍵在創造的價值,如果僅僅是輔助決策,效果難以顯現,如何才能夠立竿見影?從技術上,對應的就是流式計算,因為它對應的是業務,能夠帶來收入的應用。什麼是流式大數據?有哪些應用?現在就讓我們一起回顧下流計算平臺的發展歷史,以及如何在企業中運用。
  • 原畫|繪畫透視入門教程
    藝學繪小編收集整理了繪畫透視入門教程[透視]「透視投影」是最廣為人知的透視。越遠,它變得越小,並且被繪製為好像消失在地平線上的「消失點」。簡而言之,透視圖繪製方法是一種可以通過選擇消失點並根據在此聚集的線對其進行繪製來表達空間的深度和透視圖的方法。
  • PyTorch 深度學習官方入門中文教程 pdf 下載|PyTorchChina
    官方教程包含了 PyTorch 介紹,安裝教程;60分鐘快速入門教程,可以迅速從小白階段完成一個分類器模型;計算機視覺常用模型,方便基於自己的數據進行調整,不再需要從頭開始寫;自然語言處理模型,聊天機器人,文本生成等生動有趣的項目。
  • Python零基礎入門教程,如何使用lambda、filter和map函數?
    大綱函數類型定義及特性lambda函數定義及使用filter函數定義及使用map函數定義及使用引入函數類型概念函數類型定義:python中任意一個函數都有數據類型,這種數據類型是function(函數類型)
  • 【Ardunio】開發入門教程【一】簡介+數據類型+開發工具
    乾貨下載:添加微信好友「5834434」(必須備註「單片機:學校/公司+研究方向」,否則無法通過驗證),獲取海量單片機教程及其他學習資料
  • Python 繪圖庫 Matplotlib 入門教程
    本文是對它的一個入門教程。運行環境由於這是一個Python語言的軟體包,因此需要你的機器上首先安裝好Python語言的環境。關於這一點,請自行在網絡上搜索獲取方法。關於如何安裝Matplotlib請參見這裡:Matplotlib Installing。