Spark 數據傾斜及其解決方案

2021-03-02 浪尖聊大數據

本文從數據傾斜的危害、現象、原因等方面,由淺入深闡述Spark數據傾斜及其解決方案。

對 Spark/Hadoop 這樣的分布式大數據系統來講,數據量大並不可怕,可怕的是數據傾斜。

對於分布式系統而言,理想情況下,隨著系統規模(節點數量)的增加,應用整體耗時線性下降。如果一臺機器處理一批大量數據需要120分鐘,當機器數量增加到3臺時,理想的耗時為120 / 3 = 40分鐘。但是,想做到分布式情況下每臺機器執行時間是單機時的1 / N,就必須保證每臺機器的任務量相等。不幸的是,很多時候,任務的分配是不均勻的,甚至不均勻到大部分任務被分配到個別機器上,其它大部分機器所分配的任務量只佔總得的小部分。比如一臺機器負責處理 80% 的任務,另外兩臺機器各處理 10% 的任務。

『不患多而患不均』,這是分布式環境下最大的問題。意味著計算能力不是線性擴展的,而是存在短板效應: 一個 Stage 所耗費的時間,是由最慢的那個 Task 決定。

由於同一個 Stage 內的所有 task 執行相同的計算,在排除不同計算節點計算能力差異的前提下,不同 task 之間耗時的差異主要由該 task 所處理的數據量決定。所以,要想發揮分布式系統並行計算的優勢,就必須解決數據傾斜問題。

當出現數據傾斜時,小量任務耗時遠高於其它任務,從而使得整體耗時過大,未能充分發揮分布式系統的並行計算優勢。  

另外,當發生數據傾斜時,部分任務處理的數據量過大,可能造成內存不足使得任務失敗,並進而引進整個應用失敗。  

TIPS

在 Spark streaming 程序中,數據傾斜更容易出現,特別是在程序中包含一些類似 sql 的 join、group 這種操作的時候。因為 Spark Streaming 程序在運行的時候,我們一般不會分配特別多的內存,因此一旦在這個過程中出現一些數據傾斜,就十分容易造成 OOM。

在進行 shuffle 的時候,必須將各個節點上相同的 key 拉取到某個節點上的一個 task 來進行處理,比如按照 key 進行聚合或 join 等操作。此時如果某個 key 對應的數據量特別大的話,就會發生數據傾斜。比如大部分 key 對應10條數據,但是個別 key 卻對應了100萬條數據,那麼大部分 task 可能就只會分配到10條數據,然後1秒鐘就運行完了;但是個別 task 可能分配到了100萬數據,要運行一兩個小時。

因此出現數據傾斜的時候,Spark 作業看起來會運行得非常緩慢,甚至可能因為某個 task 處理的數據量過大導致內存溢出。

通過 Spark Web UI 來查看當前運行的 stage 各個 task 分配的數據量(Shuffle Read Size/Records),從而進一步確定是不是 task 分配的數據不均勻導致了數據傾斜。

知道數據傾斜發生在哪一個 stage 之後,接著我們就需要根據 stage 劃分原理,推算出來發生傾斜的那個 stage 對應代碼中的哪一部分,這部分代碼中肯定會有一個 shuffle 類算子。可以通過 countByKey 查看各個 key 的分布。

TIPS

數據傾斜只會發生在 shuffle 過程中。這裡給大家羅列一些常用的並且可能會觸發 shuffle 操作的算子: distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition 等。出現數據傾斜時,可能就是你的代碼中使用了這些算子中的某一個所導致的。

也可以通過抽樣統計 key 的出現次數驗證。

由於數據量巨大,可以採用抽樣的方式,對數據進行抽樣,統計出現的次數,根據出現次數大小排序取出前幾個:

df.select("key").sample(false, 0.1)           // 數據採樣    .(k => (k, 1)).reduceBykey(_ + _)         // 統計 key 出現的次數    .map(k => (k._2, k._1)).sortByKey(false)  // 根據 key 出現次數進行排序    .take(10)                                 // 取前 10 個。

(滑動可查看)

如果發現多數數據分布都較為平均,而個別數據比其他數據大上若干個數量級,則說明發生了數據傾斜。

業務邏輯: 我們從業務邏輯的層面上來優化數據傾斜,比如要統計不同城市的訂單情況,那麼我們單獨對這一線城市來做 count,最後和其它城市做整合。

程序實現: 比如說在 Hive 中,經常遇到 count(distinct)操作,這樣會導致最終只有一個 reduce,我們可以先 group 再在外面包一層 count,就可以了;在 Spark 中使用 reduceByKey 替代 groupByKey 等。

參數調優: Hadoop 和 Spark 都自帶了很多的參數和機制來調節數據傾斜,合理利用它們就能解決大部分問題。

如果導致數據傾斜的 key 是異常數據,那麼簡單的過濾掉就可以了。

首先要對 key 進行分析,判斷是哪些 key 造成數據傾斜。具體方法上面已經介紹過了,這裡不贅述。

然後對這些 key 對應的記錄進行分析:

空值或者異常值之類的,大多是這個原因引起

無效數據,大量重複的測試數據或是對結果影響不大的有效數據

有效數據,業務導致的正常數據分布

解決方案

對於第 1,2 種情況,直接對數據進行過濾即可。

第3種情況則需要特殊的處理,具體我們下面詳細介紹。

Spark 在做 Shuffle 時,默認使用 HashPartitioner(非 Hash Shuffle)對數據進行分區。如果並行度設置的不合適,可能造成大量不相同的 Key 對應的數據被分配到了同一個 Task 上,造成該 Task 所處理的數據遠大於其它 Task,從而造成數據傾斜。

如果調整 Shuffle 時的並行度,使得原本被分配到同一 Task 的不同 Key 發配到不同 Task 上處理,則可降低原 Task 所需處理的數據量,從而緩解數據傾斜問題造成的短板效應。

(1)操作流程

RDD 操作 可在需要 Shuffle 的操作算子上直接設置並行度或者使用 spark.default.parallelism 設置。如果是 Spark SQL,還可通過 SET spark.sql.shuffle.partitions=[num_tasks] 設置並行度。默認參數由不同的 Cluster Manager 控制。

dataFrame 和 sparkSql 可以設置 spark.sql.shuffle.partitions=[num_tasks] 參數控制 shuffle 的並發度,默認為200。

(2)適用場景

大量不同的 Key 被分配到了相同的 Task 造成該 Task 數據量過大。

(3)解決方案

調整並行度。一般是增大並行度,但有時如減小並行度也可達到效果。

(4)優勢

實現簡單,只需要參數調優。可用最小的代價解決問題。一般如果出現數據傾斜,都可以通過這種方法先試驗幾次,如果問題未解決,再嘗試其它方法。

(5)劣勢

適用場景少,只是讓每個 task 執行更少的不同的key。無法解決個別key特別大的情況造成的傾斜,如果某些 key 的大小非常大,即使一個 task 單獨執行它,也會受到數據傾斜的困擾。並且該方法一般只能緩解數據傾斜,沒有徹底消除問題。從實踐經驗來看,其效果一般。

TIPS 可以把數據傾斜類比為 hash 衝突。提高並行度就類似於 提高 hash 表的大小。

(1)原理

使用自定義的 Partitioner(默認為 HashPartitioner),將原本被分配到同一個 Task 的不同 Key 分配到不同 Task。

例如,我們在 groupByKey 算子上,使用自定義的 Partitioner:

.groupByKey(new Partitioner() {  @Override  public int numPartitions() {    return 12;  }
@Override public int getPartition(Object key) { int id = Integer.parseInt(key.toString()); if(id >= 9500000 && id <= 9500084 && ((id - 9500000) % 12) == 0) { return (id - 9500000) / 12; } else { return id % 12; } }})

(滑動可查看)

TIPS 這個做法相當於自定義 hash 表的 哈希函數。

(2)適用場景

大量不同的 Key 被分配到了相同的 Task 造成該 Task 數據量過大。

(3)解決方案

使用自定義的 Partitioner 實現類代替默認的 HashPartitioner,儘量將所有不同的 Key 均勻分配到不同的 Task 中。

(4)優勢

不影響原有的並行度設計。如果改變並行度,後續 Stage 的並行度也會默認改變,可能會影響後續 Stage。

(5)劣勢

適用場景有限,只能將不同 Key 分散開,對於同一 Key 對應數據集非常大的場景不適用。效果與調整並行度類似,只能緩解數據傾斜而不能完全消除數據傾斜。而且需要根據數據特點自定義專用的 Partitioner,不夠靈活。

思路4. Reduce 端 Join 轉化為 Map 端 Join

通過 Spark 的 Broadcast 機制,將 Reduce 端 Join 轉化為 Map 端 Join,這意味著 Spark 現在不需要跨節點做 shuffle 而是直接通過本地文件進行 join,從而完全消除 Shuffle 帶來的數據傾斜。

from pyspark.sql.functions import broadcastresult = broadcast(A).join(B, ["join_col"], "left")

其中 A 是比較小的 dataframe 並且能夠整個存放在 executor 內存中。

(1)適用場景

參與Join的一邊數據集足夠小,可被加載進 Driver 並通過 Broadcast 方法廣播到各個 Executor 中。

(2)解決方案

在 Java/Scala 代碼中將小數據集數據拉取到 Driver,然後通過 Broadcast 方案將小數據集的數據廣播到各 Executor。或者在使用 SQL 前,將 Broadcast 的閾值調整得足夠大,從而使 Broadcast 生效。進而將 Reduce Join 替換為 Map Join。

(3)優勢

避免了 Shuffle,徹底消除了數據傾斜產生的條件,可極大提升性能。

(4)劣勢

因為是先將小數據通過 Broadcase 發送到每個 executor 上,所以需要參與 Join 的一方數據集足夠小,並且主要適用於 Join 的場景,不適合聚合的場景,適用條件有限。

NOTES

使用Spark SQL時需要通過 SET spark.sql.autoBroadcastJoinThreshold=104857600 將 Broadcast 的閾值設置得足夠大,才會生效。

思路很簡單,就是將一個 join 拆分成 傾斜數據集 Join 和 非傾斜數據集 Join,最後進行 union:

對包含少數幾個數據量過大的 key 的那個 RDD (假設是 leftRDD),通過 sample 算子採樣出一份樣本來,然後統計一下每個 key 的數量,計算出來數據量最大的是哪幾個 key。具體方法上面已經介紹過了,這裡不贅述。

然後將這 k 個 key 對應的數據從 leftRDD 中單獨過濾出來,並給每個 key 都打上 1~n 以內的隨機數作為前綴,形成一個單獨的 leftSkewRDD;而不會導致傾斜的大部分 key 形成另外一個 leftUnSkewRDD。

接著將需要 join 的另一個 rightRDD,也過濾出來那幾個傾斜 key 並通過 flatMap 操作將該數據集中每條數據均轉換為 n 條數據(這 n 條數據都按順序附加一個 0~n 的前綴),形成單獨的 rightSkewRDD;不會導致傾斜的大部分 key 也形成另外一個 rightUnSkewRDD。

現在將 leftSkewRDD 與 膨脹 n 倍的 rightSkewRDD 進行 join,且在 Join 過程中將隨機前綴去掉,得到傾斜數據集的 Join 結果 skewedJoinRDD。注意到此時我們已經成功將原先相同的 key 打散成 n 份,分散到多個 task 中去進行 join 了。

對 leftUnSkewRDD 與 rightUnRDD 進行Join,得到 Join 結果 unskewedJoinRDD。

通過 union 算子將 skewedJoinRDD 與 unskewedJoinRDD 進行合併,從而得到完整的 Join 結果集。

TIPS

rightRDD 與傾斜 Key 對應的部分數據,需要與隨機前綴集 (1~n) 作笛卡爾乘積 (即將數據量擴大 n 倍),從而保證無論數據傾斜側傾斜 Key 如何加前綴,都能與之正常 Join。

skewRDD 的 join 並行度可以設置為 n * k (k 為 topSkewkey 的個數)。

由於傾斜Key與非傾斜Key的操作完全獨立,可並行進行。

(1)適用場景

兩張表都比較大,無法使用 Map 端 Join。其中一個 RDD 有少數幾個 Key 的數據量過大,另外一個 RDD 的 Key 分布較為均勻。

(2)解決方案

將有數據傾斜的 RDD 中傾斜 Key 對應的數據集單獨抽取出來加上隨機前綴,另外一個 RDD 每條數據分別與隨機前綴結合形成新的RDD(相當於將其數據增到到原來的N倍,N即為隨機前綴的總個數),然後將二者Join並去掉前綴。然後將不包含傾斜Key的剩餘數據進行Join。最後將兩次Join的結果集通過union合併,即可得到全部Join結果。

(3)優勢

相對於 Map 則 Join,更能適應大數據集的 Join。如果資源充足,傾斜部分數據集與非傾斜部分數據集可並行進行,效率提升明顯。且只針對傾斜部分的數據做數據擴展,增加的資源消耗有限。

(4)劣勢

如果傾斜 Key 非常多,則另一側數據膨脹非常大,此方案不適用。而且此時對傾斜 Key 與非傾斜 Key 分開處理,需要掃描數據集兩遍,增加了開銷。

思路6. 大表 key 加鹽,小表擴大 N 倍 jion

如果出現數據傾斜的 Key 比較多,上一種方法將這些大量的傾斜 Key 分拆出來,意義不大。此時更適合直接對存在數據傾斜的數據集全部加上隨機前綴,然後對另外一個不存在嚴重數據傾斜的數據集整體與隨機前綴集作笛卡爾乘積(即將數據量擴大N倍)。

其實就是上一個方法的特例或者簡化。少了拆分,也就沒有 union。

(1)適用場景

一個數據集存在的傾斜 Key 比較多,另外一個數據集數據分布比較均勻。

(2)優勢

對大部分場景都適用,效果不錯。

(3)劣勢

需要將一個數據集整體擴大 N 倍,會增加資源消耗。

在 map 端加個 combiner 函數進行局部聚合。加上 combiner 相當於提前進行 reduce ,就會把一個 mapper 中的相同 key 進行聚合,減少 shuffle 過程中數據量 以及 reduce 端的計算量。這種方法可以有效的緩解數據傾斜問題,但是如果導致數據傾斜的 key 大量分布在不同的 mapper 的時候,這種方法就不是很有效了。

TIPS 使用 reduceByKey 而不是 groupByKey。

這個方案的核心實現思路就是進行兩階段聚合。第一次是局部聚合,先給每個 key 都打上一個 1~n 的隨機數,比如 3 以內的隨機數,此時原先一樣的 key 就變成不一樣的了,比如 (hello, 1) (hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成 (1_hello, 1) (3_hello, 1) (2_hello, 1) (1_hello, 1) (2_hello, 1)。接著對打上隨機數後的數據,執行 reduceByKey 等聚合操作,進行局部聚合,那麼局部聚合結果,就會變成了 (1_hello, 2) (2_hello, 2) (3_hello, 1)。然後將各個 key 的前綴給去掉,就會變成 (hello, 2) (hello, 2) (hello, 1),再次進行全局聚合操作,就可以得到最終結果了,比如 (hello, 5)。

def antiSkew(): RDD[(String, Int)] = {    val SPLIT = "-"    val prefix = new Random().nextInt(10)    pairs.map(t => ( prefix + SPLIT + t._1, 1))        .reduceByKey((v1, v2) => v1 + v2)        .map(t => (t._1.split(SPLIT)(1), t2._2))        .reduceByKey((v1, v2) => v1 + v2)}

(滑動可查看)

不過進行兩次 mapreduce,性能稍微比一次的差些。

Hadoop 中直接貼近用戶使用的是 Mapreduce 程序和 Hive 程序,雖說 Hive 最後也是用 MR 來執行(至少目前 Hive 內存計算並不普及),但是畢竟寫的內容邏輯區別很大,一個是程序,一個是Sql,因此這裡稍作區分。

Hadoop 中的數據傾斜主要表現在 ruduce 階段卡在99.99%,一直99.99%不能結束。

經驗: Hive的數據傾斜,一般都發生在 Sql 中 Group 和 On 上,而且和數據邏輯綁定比較深。

優化方法

這裡列出來一些方法和思路,具體的參數和用法在官網看就行了。

map join 方式

count distinct 的操作,先轉成 group,再 count

參數調優

set hive.map.aggr=true

set hive.groupby.skewindata=true

left semi jion 的使用

設置 map 端輸出、中間結果壓縮。(不完全是解決數據傾斜的問題,但是減少了 IO 讀寫和網絡傳輸,能提高很多效率)

hive.map.aggr=true: 在map中會做部分聚集操作,效率更高但需要更多的內存。

hive.groupby.skewindata=true: 數據傾斜時負載均衡,當選項設定為true,生成的查詢計劃會有兩個MRJob。第一個MRJob 中,Map的輸出結果集合會隨機分布到Reduce中,每個Reduce做部分聚合操作,並輸出結果,這樣處理的結果是相同的GroupBy Key有可能被分發到不同的Reduce中,從而達到負載均衡的目的;第二個MRJob再根據預處理的數據結果按照GroupBy Key分布到Reduce中(這個過程可以保證相同的GroupBy Key被分布到同一個Reduce中),最後完成最終的聚合操作。

Spark性能優化之道——解決Spark數據傾斜(Data Skew)的N種姿勢

漫談千億級數據優化實踐:數據傾斜(純乾貨)

解決spark中遇到的數據傾斜問題

作者簡介:

鄭志彬,畢業於華南理工大學計算機科學與技術(雙語班)。先後從事過電子商務、開放平臺、移動瀏覽器、推薦廣告和大數據、人工智慧等相關開發和架構。目前在vivo智能平臺中心從事 AI中臺建設以及廣告推薦業務。擅長各種業務形態的業務架構、平臺化以及各種業務解決方案。

相關焦點

  • 解決Spark數據傾斜(Data Skew)的N種姿勢
    本文結合實例詳細闡明了Spark數據傾斜的幾種場景以及對應的解決方案,包括避免數據源傾斜,調整並行度,使用自定義Partitioner,使用Map側Join代替Reduce側Join,給傾斜Key加上隨機前綴等。
  • 深入淺出Hive數據傾斜
    在處理海量數據的實踐中,個推分析師需要解決各種困難,以高效、準確地使用SQL語句進行數據處理,在此過程中,也積累了豐厚的實戰經驗。本文將為你深入淺出地講解Hive數據傾斜的原因以及解決的方法,從而幫你快速完成工作!數據傾斜在MapReduce計算框架中經常發生。
  • Spark性能優化指南
    數據傾斜調優,就是使用各種技術方案解決不同類型的數據傾斜問題,以保證Spark作業的性能。數據傾斜發生時的現象數據傾斜發生的原理數據傾斜的原理很簡單:在進行shuffle的時候,必須將各個節點上相同的key拉取到某個節點上的一個task來進行處理,比如按照key進行聚合或join等操作。此時如果某個key對應的數據量特別大的話,就會發生數據傾斜。
  • Spark性能優化指南——高級篇
    調優概述有的時候,我們可能會遇到大數據計算中一個最棘手的問題——數據傾斜,此時Spark作業的性能會比期望差很多。數據傾斜調優,就是使用各種技術方案解決不同類型的數據傾斜問題,以保證Spark作業的性能。
  • 大數據中Hadoop Hive發生數據傾斜的處理方案 絕對是乾貨
    Hadoop中發現數據傾斜的原因?如何處理?數據傾斜就是key分布不均勻,導致分發到不同的reduce上,個別reduce任務特別重,導致其他reduce都完成,而這些個別的reduce遲遲不完成的情況。
  • 數據分析工程師面試集錦5——Spark面試指南
    Spark使用最先進的DAG調度程序、查詢優化程序和物理執行引擎,實現批量和流式數據的高性能。2.易用性。Spark支持Java、Python和Scala的API,還支持超過80種高級算法,使用戶可以快速構建多樣的應用。3.通用性。Spark提供了統一的解決方案。
  • 3萬字細品數據傾斜(建議收藏)
    五、 解決數據傾斜思路5.1 概述數據傾斜的產生是有一些討論的,解決它們也是有一些討論的,本章會先給出幾個解決數據傾斜的思路,然後對Hadoop和Spark分別給出一些解決數據傾斜的方案。5.3 從業務和數據上解決數據傾斜很多數據傾斜都是在數據的使用上造成的。我們舉幾個場景,並分別給出它們的解決方案。數據分布不均勻:前面提到的「從數據角度來理解數據傾斜」和「從業務計角度來理解數據傾斜」中的例子,其實都是數據分布不均勻的類型,這種情況和計算平臺無關,我們能通過設計的角度嘗試解決它。
  • Spark-TFRecord: Spark將全面支持TFRecord
    儘管兩個框架有一些共同支持的數據格式,但是,作為 TFRecord—TensorFlow 的原生格式,並沒有被 Spark 完全支持。儘管之前有過一些嘗試,試圖解決兩個系統之間的差異(比如 Spark-TensorFlow-Connector),但是現有的實現都缺少很多 Spark 支持的重要特性。本文中,我們將介紹 Spark 的一個新的數據源,Spark-TFRecord。
  • Apache Spark 2.4 中解決複雜數據類型的內置函數和高階函數介紹
    如果想及時了解Spark、Hadoop或者Hbase相關的文章,歡迎關注微信公共帳號:iteblog_hadoop在 Spark 2.4 之前,為了直接操作複雜類型,有兩種典型的解決方案:新的內置函數可以直接操作複雜類型,高階函數可以使用匿名 lambda 函數直接操作複雜值,類似於UDF,但具有更好的性能。
  • 賽爾傾斜攝影房地一體解決方案——精度測試篇
    例如項目周期長、人工成本高、房屋密集不通視,圖根控制點保存困難,測量累計誤差大、數據成果單一等。目前已經有很多案例證明,傾斜攝影技術在農村地籍測量中的應用,能夠有效解決作業實施過程中存在的問題,很大程度上提高了數據的精準度以及作業的高效性。
  • 【大數據嗶嗶集20210117】Spark面試題靈魂40問
    ,選擇高效的存儲格式如parquet2)應用程式層面的調優:過濾操作符的優化降低過多小任務,降低單條記錄的資源開銷,處理數據傾斜,復用RDD進行緩存,作業並行化執行等等 3)JVM層面的調優:設置合適的資源量,設置合理的JVM,啟用高效的序列化方法如kyro,增大off head內存等等具體的task運行在那他機器上,dag劃分stage的時候確定的4)stage如果失敗會自動進行特定次數的重試,而且只會計算失敗的分片
  • Spark【面試】
    這是因為這幾個reduce中的處理的數據要遠遠大於其他的reduce,可能是因為對鍵值對任務劃分的不均勻造成的數據傾斜解決的方法可以在分區的時候重新定義分區規則對於value數據很多的key可以進行拆分、均勻打散等處理,或者是在map端的combiner中進行數據預處理的操作6、簡單說一下
  • 黑馬程式設計師:技術筆記大數據面試題之spark相關(二)
    昨天分享了大數據面試題之spark相關一,看到有很大的反響,今天就分享接下來的二,希望能更好的幫助到大家!這樣的好處在於 combine/reduce() 可以處理大規模的數據,因為其輸入數據可以通過外排得到(mapper 對每段數據先做排序,reducer 的 shuffle 對排好序的每段數據做歸併)。目前的 Spark 默認選擇的是 hash-based,通常使用 HashMap 來對 shuffle 來的數據進行 aggregate,不會對數據進行提前排序。
  • 詭異 | Spark使用get_json_object函數
    使用spark命令:/opt/software/spark-2.2.0-bin-hadoop2.6/bin/spark-sql \--master yarn-client \--driver-memory
  • spark結構化數據處理:Spark SQL、DataFrame和Dataset
    import org.apache.spark.sql.Rowimport org.apache.spark.sql.types.指定數據源通常需要使用數據源全名(如org.apache.spark.sql.parquet),但對於內建數據源,你也可以使用它們的短名(json、parquet和jdbc)。並且不同的數據源類型之間都可以相互轉換。
  • 代碼 | Spark讀取mongoDB數據寫入Hive普通表和分區表
    System.out.println("數據插入到Hive ordinary table");            Long t1 = System.currentTimeMillis();            spark.sql("insert into mgtohive_2 " + querysql + " " + "where b.id not in (select id
  • 大數據分析工程師入門9-Spark SQL
    大數據處理使用SQL進行大數據處理,使傳統的RDBMS人員也可以進行大數據處理,不需要掌握像mapreduce的編程方法。(rowRDD,schema)三不得不說的數據源在工作中使用Spark SQL進行處理數據的第一步就是讀取數據,Spark SQL通過統一的接口去讀取和寫入數據。
  • 數據說話:大數據處理引擎Spark與Flink比拼
    不像經過幾十年發展的資料庫一個系統可以解決大部分數據處理需求,Hadoop 等大數據生態裡的一個系統往往在一些數據處理場景上比較擅長,另一些場景湊合能用,還有一些場景完全無法滿足需求。結果就是需要好幾個系統來處理不同的場景。
  • Spark機器學習的關鍵技巧
    以前的統計/機器學習依賴於數據抽樣,抽樣從統計的角度來看,如果足夠隨機,其實可以很精準的反應全集的結果,但事實上往往很難做好隨機,所以通常做出來也會很不準。現在大數據解決了這個問題,但不是通過優化抽樣的隨機來解決,而是通過全量數據來解決。要解決全量的就需要有強大的處理能力,spark首先具備強大的處理能力,其次SparkShell帶來了傳說中的即席查詢。
  • Spark實戰第二版(涵蓋Spark3.0)-第十章 通過結構化流接入數據
    本章涵蓋從總覽的角度看你的數據,專注於數據生成部分。您看到的是生成批量數據的系統,還是連續生成數據的系統?提供數據流(也稱為streams)的系統幾年前不太流行。streams肯定會得到更多的關注,理解streams是本章的重點。例如,您的手機會定期ping手機發射塔。如果是智慧型手機(本書的讀者群,很有可能),它將同時檢查電子郵件和其他內容。