Kafka-manager部署與使用簡單介紹

2020-08-26 walkingcloud

kafka Manager是 Yahoo 推出的 Kafka 開源管理工具,用於管理Apache Kafka集群的工具,用戶可以在Web界面執行一些簡單的Kafka集群管理操作

Kafka Manager支持以下內容:

  • 管理多個集群
  • 輕鬆檢查群集狀態(主題,使用者,偏移量,代理,副本分發,分區分發)
  • 運行首選副本選擇
  • 生成帶有選項的分區分配,以選擇要使用的代理
  • 運行分區的重新分配(基於生成的分配)
  • 創建帶有可選主題配置的主題(0.8.1.1與0.8.2+具有不同的配置)
  • 刪除主題(僅在0.8.2+上受支持,並記住在代理配置中設置delete.topic.enable = true)
  • 主題列表指示標記為刪除的主題(僅在0.8.2+上受支持)
  • 批量生成多個主題的分區分配,並可以選擇要使用的代理
  • 批量運行分區的多個主題的重新分配
  • 將分區添加到現有主題
  • 更新現有主題的配置

Kafka Manager下載地址 https://github.com/yahoo/kafka-manager/releases

下載下來的是源碼包,需要進行sbt編譯,為了方便我這裡直接下載編譯好的kafka-manager-1.3.3.8.zip

下面搭建kafka測試環境,簡單演示kafka manager部署與使用

1、kafka環境準備

可以使用如下腳本創建單節點的kafka測試伺服器

腳本如下(腳本寫得較簡單,可以忽略腳本健壯性)

39;/mirrors.cloud.aliyuncs.com/d&39;/mirrors.aliyuncs.com/d&34;-----------安裝JDK----------------&34;export JAVA_HOME=/usr/java/jdk1.8.0_251-amd64&34;export PATH=\$PATH:\$JAVA_HOME/bin&34;export CLASSPATH=.:\$JAVA_HOME/jre/lib:\$JAVA_HOME/lib:\$JAVA_HOME/lib/tools.jar&34;-----------安裝zookeeper----------------&34;sdataDir=/opt/zookeeper/data34; zoo.cfgecho &34;echo 1 > /opt/zookeeper/data/myidecho &34; >> /etc/profileecho &34;cd /opttar -zxf kafka_2.13-2.5.0.tgzmv kafka_2.13-2.5.0 kafkacd kafkamkdir datacd configcp server.properties server.properties_defaultsed -i &log.dirs=/tmp/kafka-logsg&34;listeners=PLAINTEXT://192.168.31.80:9092&34;s/opt/zookeeper/bin:/opt/kafka/bin34; /etc/profilesource /etc/profileecho $PATHecho &34;echo &34;echo &34;echo &34;echo &34;echo &34;

上傳jdk_zookeeper_kafka.zip和 kafka_install.sh

 sh kafka_install.sh

2、修改kafka-server-start.sh,添加JMX啟動參數

cd /optcd kafka/binvi kafka-server-start.sh34;-Xmx1G -Xms1G&export JMX_PORT=&34;if [ &34; = &34; ]; then    export KAFKA_HEAP_OPTS=&34;    export JMX_PORT=&34;fi

如下圖所示

然後啟動zookeeper和kafka

zkServer.sh startkafka-server-start.sh -daemon /opt/kafka/config/server.properties

3、上傳kafka-manager安裝包並修改參數

unzip kafka-manager-1.3.3.23.zipmv kafka-manager-1.3.3.23 kafka-managercd kafka-manager/confcp application.conf application.conf_default_bak


修改如下參數 vi application.conf

1)、將kafka-manager.zkhosts=&34;修改為當前的zookeeper地址與埠

2)、開啟用戶名密碼驗證

basicAuthentication.enabled=false改為 basicAuthentication.enabled=true

4、啟動kafka-manager

cd /opt/kafka-manager/bin ./kafka-manager -Dconfig.file=/opt/kafka-manager/conf/application.conf -Dhttp.port=9000

5、添加集群,並查看集群的相關信息

kafka-topics.sh --create --zookeeper localhost:2181 --partitions 2 --replication-factor 1 --topic yuanfan_kafka_testkafka-console-producer.sh --bootstrap-server 192.168.31.80:9092 --topic yuanfan_kafka_testkafka-console-consumer.sh --bootstrap-server 192.168.31.80:9092 --topic yuanfan_kafka_test

1)可以創建主題,測試主題的自生產與自消費

2)用之前配置文件中帳戶密碼登錄kafka-manager

默認admin/password

3)登錄後的界面

4)添加集群,修改連接集群的配置

5)查看topic的信息

6)Topic的綜合信息及指標信息

相關焦點

  • Ubuntu下安裝Kafka Manager
    下載Kafka Manager,並進行打包,由於Kafka manager是由scala寫的,所以需要由sbt的支持 apt-get -y install git git clone https://github.com/yahoo/kafka-manager安裝sbtecho "deb https
  • Kafka-Manager - 一站式 Kafka 管控平臺
    Kafka-Manager,這個由滴滴出行開源的 Kafka 集群監控和管控平臺,會使得 Kafka 的管理變得十分簡單。,是 didi(滴滴出行開源團隊)在 Github 上開源的 Apache Kafka 集群管控平臺,項目位於 https://github.com/didi/kafka-manager,目前版本為 v1.0.0。
  • 在容器中部署ELFK+kafka日誌系統(二)
    接前一篇:部署Logstash在這裡部署Logstash的作用是讀取kafka中的信息,然後傳遞給我們的後端存儲ES,為了簡化,我這裡直接使用Deployment部署了。-0.kafka-svc.kube-ops:9092, kafka-1.kafka-svc.kube-ops:9092, kafka-2.kafka-svc.kube-ops:9092"]        group_id => "logstash-g1"
  • 一款Kafka可視化Web界面管理工具:CMAK
    使用過Kafka集群的人都知道,要記住KafKa的命令對於新手確實比較難,所以一般都會尋找能在頁面操作的管理工具。今天跟大家介紹其中一款可視化Web界面管理工具,它就是kafka-manager,不過現在更名為CMAK。
  • 單機版kafka集群部署
    今天跟大家講解下如何部署單機kafka集群,希望大家喜歡。Kafka 是由 LinkedIn 開發的一個分布式的消息系統,使用 Scala 編寫,它以可水平擴展和高吞吐率而被廣泛使用。部署環境本次是以CentOS6 環境為例子,介紹下如何快速搭建。
  • ELK + Filebeat + Kafka 分布式日誌管理平臺搭建
    : image: kafkamanager/kafka-manager container_name: kafka-manager environment: ZK_HOSTS: 192.168.3.3 ports: - 9001:9000 restart: always
  • kafka入門(原理-搭建-簡單使用)
    一、kafka介紹與原理我們將消息的發布(publish)稱作 producer,將消息的訂閱(subscribe)表述為 consumer,將中間的存儲陣列稱作 broker(代理),這樣就可以大致描繪出這樣一個場面:生產者將數據生產出來,交給 broker 進行存儲,消費者需要消費數據了
  • 「日誌架構」ELK Stack + Kafka 端到端練習
    /bin/kafka-server-stop.shKafka Manager 部署可以使用CLI命令管理Kafka集群。然而,它並不是非常方便。Kafka Manager是一個基於web的工具,它使基本的Kafka管理任務變得簡單明了。
  • Kafka的集群部署實踐及運維相關
    ···等核心分布式系統,一般建議直接採用物理機,拋棄使用一些低配置的虛擬機的想法。但是這裡有一個問題,我們通常是建議,公司預算充足,儘量是讓高峰QPS控制在集群能承載的總QPS的30%左右(也就是集群的處理能力是高峰期的3~4倍這個樣子),所以我們搭建的kafka集群能承載的總QPS為20萬~30萬才是安全的。所以大體上來說,需要5~7臺物理機來部署,基本上就很安全了,每臺物理機要求吞吐量在每秒4~5萬條數據就可以了,物理機的配置和性能也不需要特別高。
  • K8S環境快速部署Kafka(K8S外部可訪問)
    如何快速部署,拉勾IT課小編為大家分解藉助Helm,只需少量操作即可部署kafka;kafka和zookeeper對存儲都有需求,若提前準備了StorageClass,存儲一事則變得十分簡單接下來的實戰之前,請您準備好:K8S、Helm、NFS、StorageClass
  • springboot + kafka的使用
    主要的使用場景是哪些?Apache Kafka是一個開源消息系統,由Scala寫成。是由Apache軟體基金會開發的一個開源消息系統項目。Kafka是一個分布式消息隊列。環境準備這邊的話,我們簡單的在windows搭建一個環境即可主要的就是以下三個環境:jdkzookeeperkafka具體步驟這裡就不詳細介紹了,網上有很多案例
  • Kafka實戰1-全家桶安裝
    安裝文件地址https://github.com/operator-framework/operator-lifecycle-manager/releases/download/0.16.1/crds.yamlhttps://github.com/operator-framework/operator-lifecycle-manager/releases/download/0.16.1/olm.yaml
  • Docker實戰之Kafka集群
    其具有高吞吐量、內置分區、支持數據副本和容錯的特性,適合在大規模消息處理場景中使用。筆者之前在物聯網公司工作,其中 Kafka 作為物聯網 MQ 選型的事實標準,這裡優先給大家搭建 Kafka 集群環境。由於 Kafka 的安裝需要依賴 Zookeeper,對 Zookeeper 還不了解的小夥伴可以在 這裡 先認識下 Zookeeper。Kafka 能解決什麼問題呢?
  • Kafka集群監控系統Kafka Eagle部署與體驗
    ​Kafka Eagle是一款開源的Kafka集群監控系統 能夠實現broker級常見的JMX監控;能對consumer消費進度進行監控;能在頁面上直接對多個集群進行管理;安裝方式簡單2、解壓kafka eagletar -zxvf kafka-eagle-bin-2.0.1.tar.gzcd kafka-eagle-bin-2.0.1
  • 在容器中部署ELFK+kafka日誌系統(一)
    正常情況下,上面這種方案就足夠我們使用,但是如果集群日誌太多,ES不堪重負,我們就需要接入中間件來緩衝數據,對於這些中間件來說kafka和redis無疑是我們的首選方案。我們這裡採用了kafka,我們追求一切容器化,所以將這些組件全部都部署在Kubernetes中。
  • 在邊緣處部署Kafka的用例與架構
    實際上,Kafka可以被部署在零售商店、手機信號塔、火車、小型工廠、以及飯店等各種邊緣位置。本文將重點向您介紹Kafka客戶和Kafka代理(brokers)在跨行業邊緣處的用例與架構,其中包括邊緣的處理、集成、去耦、低延遲、以及經濟高效的數據處理。
  • 如何構建安全的Kafka集群
    然而,當下越來越多的安全漏洞、數據洩露等問題的爆發,安全正成為系統選型不得不考慮的問題,Kafka由於其安全機制的匱乏,也導致其在數據敏感行業的部署存在嚴重的安全隱患。本文將圍繞Kafka,先介紹其整體架構和關鍵概念,再深入分析其架構之中存在的安全問題,最後分享下Transwarp在Kafka安全性上所做的工作及其使用方法。
  • kafka異步雙活方案 mirror maker2深度解析
    mirror maker2背景通常情況下,我們都是使用一套kafka集群處理業務。但有些情況需要使用另一套kafka集群來進行數據同步和備份。在kafka早先版本的時候,kafka針對這種場景就有推出一個叫mirror maker的工具(mirror maker1,以下mm1即代表mirror maker1),用來同步兩個kafka集群的數據。
  • kafka_2.12-1.0.0-單節點的安裝部署使用
    kafka已經內置了一個zookeeper伺服器以及一些啟動腳本編輯配置文件zookeeper.properties配置內容dataDir=/usr/local/kafka_2.12-1.0.0/data/clientPort=2181啟動zookeeper.
  • 生產環境使用Apache Kafka和Redis的流架構
    它們的無狀態性質和動態擴展使它們非常適合在Kubernetes集群中進行部署。使用Kafka開始進行有趣的項目的一種簡單方法是使用docker-compose,其設置類似於以下內容:version--max-messages 42</font>下面是一個短節點腳本,它通過提供默認參數來與上面介紹的dockerfile一起使用,簡化了使用kafka控制臺工具的操作