物聯網鄰域近期如火如荼,網際網路和傳統公司爭相布局物聯網。作為物聯網鄰域數據存儲的首選時序資料庫也越來越多進入人們的視野,而早在2016年7月,百度雲在其天工物聯網平臺上發布了國內首個多租戶的分布式時序資料庫產品TSDB,成為支持其發展製造,交通,能源,智慧城市等產業領域的核心產品,同時也成為百度戰略發展產業物聯網的標誌性事件。
壓縮對於時序資料庫是至關重要的。因為時序資料庫面對的物聯網場景每天都會產生上億條數據。眾所周知,在大數據時代的今天數據的重要性是不言而喻的,數據就是公司的未來。但如果無法對這些時序數據進行很好的管理和壓縮,那將給客戶帶來非常高的成本壓力。
如前文提到的,工業物聯網環境監控方向的客戶,一年產生1P的數據,如果每臺伺服器10T的硬碟,那麼總共需要100多臺。按照每臺伺服器3萬來算,一年就需要300萬的支出,這還不包括維護人員的成本。
壓縮是個非常大的話題,本文希望能夠先從大的宏觀角度給出一個輪廓,講述壓縮的本質,壓縮的可計算性問題。再從時序數據壓縮這一個垂直領域,給出無損壓縮和有損壓縮各一個例子進行說明,希望能夠拋磚引玉。
1. 壓縮的故事
先來講個有關壓縮的故事,外星人拜訪地球,看中了大英百科全書,想要把這套書帶回去。但這套書太大,飛船放不下。於是外星人根據飛船的長度,在飛船上畫了一個點。這樣外星人心滿意足的返回了自己的星球,因為這個點就存儲了整個大英百科全書。
這個並不是很嚴謹的故事,卻道出了壓縮的本質:用計算時間換取存儲空間。外星人在飛船上畫的點非常有技術含量,可以說是黑科技,代表一個位數非常長的不循環小數。而這串數字正代表了整個大英百科全書的內容。
2. 壓縮的兩個問題
再來回答兩個宏觀的問題,幫助我們認識在壓縮這件事上哪些是我們能做的,哪些是不能做的。
第一個問題:是否存在一個通用的壓縮算法(Universal Compression),也就是說某個壓縮算法能夠壓縮任意的數據。答案是否定的,並不存在這樣的通用壓縮算法。
用反證法可以做個快速的證明。假設存在通用的壓縮算法,也就是說有個壓縮算法,對於長度為n的字符串,總能壓縮到長度小於n的字符串。總共有2n個長度為n的不同字符串;但卻只有2n-1 個長度小於n的字符串。那麼必定存在兩個長度為n的字符串A,B,經過壓縮得到同一個字符串。這樣解壓縮算法沒有辦法正確的解壓。所以假設錯誤,並不存在通用的壓縮算法。
第二個問題:是否能寫出一個函數,輸入字符串,可以得到這個字符串最短表示的長度。答案也是否定的,也就是說我們無法證明某個算法是最好的算法。柯爾莫哥洛夫複雜性的不可計算性解釋的就是這個問題。用的也是反證法,有興趣的朋友可以自行百度了解(注1)。
這兩個問題的答案,告訴我們三件事情,1、壓縮算法的選擇需要具體情況具體分析,不可壓縮的字符串總是存在。2、不要妄圖獲得最好的壓縮算法,它是不可計算的。因為總有你想不到的壓縮算法存在。舉個例子,[一百萬個0的字符串,以「foo」作為key,經過AES加密算法的CBC模式得到的字符串]。這串字符串看起來完全是隨機的,不可壓縮的。但我卻用43個中文(中括號之間的內容)就表示了出來。3、壓縮是件很難很有技術含量的事情,需要不斷的挖掘,才能將他做到更好。
3. 時序數據壓縮
針對不同的數據,會有不同的壓縮,大致壓縮的對象可以分為文檔、音頻、視頻等。如果直接採用文檔的壓縮算法用於時序數據,效果並不理想。下圖是一些常用的壓縮算法的benchmark,可以看到壓縮率那一欄最高也只能夠達到3左右的壓縮率(壓縮率=原始數據大小/壓縮後的數據大小)。更多壓縮算法可以查看注2。
如果要得到更好的壓縮率,我們需要採取更加適合時序數據的壓縮算法。時序數據的壓縮可以分為無損壓縮和有損壓縮。
無損壓縮
無損壓縮是說被壓縮的數據和解壓後的數據完全一樣,不存在精度的損失。對數據的壓縮說到底是對數據規律性的總結。時序數據的規律可以總結為兩點:1、timestamp穩定遞增、2、數值有規律性,變化穩定。下面來舉個例子。
上圖是一組時序數據,如果我們一行一行的看感覺壓縮有點困難,但如果我們一列一列的看,壓縮方案就呼之欲出了。
先看timestamp那一列是等差遞增數列,可以用[1467627245000,1000,4]來表示。1467627245000代表了第一個時間,1000代表後一個時間比前一個時間的大1000,4代表了這樣的規律出現了4次。如果一共有100個這樣規律的timestamp,那就意味著,我們用3個Long型就可以表示出來。timestamp壓縮率高達33。
再進一步觀察看value那一列,如果取差值,可以得到(6,-5,2,-5),全部都加5得到(11,0,7,0),這些數值都可以用4bit來表示。也就是用[23,5,4,0xb0700000]來表示(23,22,24,25,24)。其中的4代表後續一共有4個數。如果這樣的規律一直維持到100個Int的value,就可以用16個Int來代表,壓縮率高達6.3。
具體的情景會複雜很多,在此只是簡單舉個例子。InfluxDB無損壓縮算法在其頁面上有完整的闡述(注3),可以配合開源源碼進行更加深入的理解。針對於浮點數類型,Facebook在Gorilla論文中(注4)提到的非常高效的無損壓縮算法,已經有很多文章進行分析。InfluxDB對於浮點型也採用這個算法。
有損壓縮
有損壓縮的意思是說解壓後的數據和被壓縮的數據在精度上有損失,主要針對於浮點數。通常都會設置一個壓縮精度,控制精度損失。時序數據的有損壓縮的思路是擬合。也就是用一條線儘可能的匹配到這些點,可以是直線,也可以是曲線。
最有名的時序數據有損壓縮是SOIsoft公司的SDA算法,中文稱為旋轉門壓縮算法。
在上圖中,紅色的點是上一個記錄的點,空心的點是被丟掉的點,綠色的點是當前的點,黑色的點是當前要記錄的點。
可以看到圖左邊,當前點和上一個記錄點以及壓縮精度的偏差值形成的矩形可以包含中間的點,所以這些點都是可以丟掉的。
再看圖右邊,當前點和上一個記錄點形成的矩形無法包含中間的點,所以把上一個點記錄下來。如此進行下去,可以看到,大部分的數據點都會被丟掉。查詢的時候需要根據記錄的點把丟掉的點在插值找回來。
有損壓縮除了可以大幅減少存儲成本。如果結合設備端的能力,甚至可以減少數據的寫入,降低網絡帶寬。
4. 總結
雖然判斷壓縮算法最優是不可計算的,但是設計好的壓縮算法仍然是可計算的問題。可以看到,前面提到的時序數據的無損壓縮有損壓縮算法都會基於時序數據的特徵採取方案,達到更好的壓縮率。現在deep learning非常的火,讓人很好奇它是不是可以給數據壓縮帶來新的方案。