點擊「程式設計師面試吧」,選擇「星標🔝」
回復關鍵詞「面試」有驚喜~
Kafka是一個現在聽到很多的概念.許多領先的網際網路公司似乎也在使用它。但究竟是什麼呢?Kafka最初於2011年在LinkedIn開發,自那時起經歷了很多改進。如今它是一個完整的平臺,允許您冗餘地存儲荒謬的數據量,擁有一個具有巨大吞吐量(數百萬/秒)的消息總線,並對同時通過它的數據使用實時流處理。
今天分享的這份資料,包括121頁的Kafka官方中文文檔和Kafka常見面試題,由於內容過多,在此只以截圖展示部分內容,詳細完整版的文檔領取方式請見文末。
這份Kafka官方中文文檔既適合小白入門也適合有一定基礎的同學進階提升。這份文檔共分為9大部分:Kafka基礎入門,APIS,Kafka配置,Kafka設計思想及實現,操作,安全,Kafka 連接器及Kafka streams。幾乎涵蓋了Kafka所有的知識點,一份文檔在手,輕鬆學會Kafka!第一部分:Kafka基礎入門
這一部分是學習Kafka的準備階段,Kafka的發展,使用案例,下載及歷史版本,都在這一部分進行了詳細的描述。
第二部分:APIS
kafka包括五個核心APIS,在這一部分中分別對其進行了詳解。
第三部分:配置
第四部分:設計思想
這一部分介紹了Kafka的設計思想以及一些重要概念解析:生產者,備份,消息分發策略,日誌壓縮······
第五部分:實現思路
第五部分承接第四部分的內容,對Kafka的實現思路進行了詳盡介紹。
第六部分:Kafka操作
接下來就進入了實操階段,基本原理,基礎概念了解清楚之後正式開始上手,這一部分的內容會比較多,是基於LinkedIn使用Kafka作為生產系統的一些使用經驗。基礎配置,硬體作業系統及監控,zookeeper等內容都需要在本章掌握。
第七部分:Kafka安全
Kafka具有特性,通過單獨使用或者⼀起使用這些特性,提高了Kafka集群的安全性。
第八部分:Kafka連接器
這一部分主要介紹了:Kafka Connect ——⼀款可擴展並且可靠地在 Apache Kafka 和其他系統之間進行數據傳輸的工具。
Kafka Connect 可以攝取資料庫數據或者收集應用程式的 metrics 存儲到 Kafka topics,使得數據可以用於低延遲的流處理。一個導出的 job 可以將來自 Kafkatopic 的數據傳輸到二級存儲,用於系統查詢或者批量進行離線分析。
第九部分:Kafka Streams
Kafka Streams 是一個用於處理和分析存儲在 Kafka 系統中的數據的客戶端庫。它建立在重要的流處理概念上,如恰當地區分事件時間(event time)和處理時間(processing time),支持窗口操作(window),exactly-once 處理語義以及簡單高效的應用程式狀態管理。Kafka Streams 的入門門檻很低。我們可以在單節點環境上快速實現一個小規模的驗證性的程序,只要程序能在多節點的集群環境成功運行即可部署到高負載的生產環境。Kafka Streams 通過利用Kafka 的並行模型實現對相同應用程式的多個實例的負載平衡,這對於用戶來說是透明的。
此外,還為大家準備了一份Kafka面試題(基礎+進階+高級),共44個知識點!
如果有需要完整版的朋友可以識別關注下方公眾號,回復關鍵詞「Kafka」即可全部打包帶走!
(注意拼寫正確!直接複製關鍵詞領取更方便哦~)