kafka监控efak脚本

官网地址:EFAK

环境部署

JDK1.8:https://download.oracle.com/otn/java/jdk/8u221-b11/230deb18db3e4014bb8e3e8324f81b43/jdk-8u221-linux-x64.tar.gz kafka-eagle3.0.1:https://github.com/smartloli/kafka-eagle-bin/archive/v3.0.1.tar.gz

mysql5.7或8.0 :脚本

脚本(注意不要把efak,mysql与kafka放在一个服务器上)

#!/bin/bash
##################### 准备工作 #####################
#1.服务器直接下载包可能会很慢,建议下载到本地后上传至服务器
#2.可自定义安装包存放目录
#3.注意修改IP地址&&
#4.配置文件根据自己情况改
#5.根据需求增添ip和主机名(修改完后重启)

#安装包目录mydir,即执行脚本的当前目录
mydir=$(cd "$(dirname "$0")";pwd)
echo $mydir

#efak&&jdk存放目录
efak=/opt
jdk=/usr

#更改IP
ip1=192.168.0.208
ip2=192.168.0.210
ip3=192.168.0.91
mysqlip=192.168.0.226

#主机名
hostname1=node2
hostname2=node3
hostname3=node4

#更改主机名&&配置hosts文件
sed -i -e '$a # \n'$ip1' '$hostname1' \n'$ip2' '$hostname2' \n'$ip3' '$hostname3'' /etc/hosts

######################################################################################

#解压
tar -zxvf $mydir/jdk-8u221-linux-x64.tar.gz -C $jdk
#修改/etc/profile&&重启配置
sed -i '$a # \nexport JAVA_HOME='$jdk'/jdk1.8.0_221 \nexport PATH=$PATH:$JAVA_HOME/bin' /etc/profile
source /etc/profile

#解压
tar -zxvf $mydir/kafka-eagle-bin-3.0.1.tar.gz
tar -zxvf $mydir/kafka-eagle-bin-3.0.1/efak-web-3.0.1-bin.tar.gz -C $efak
echo "修改/etc/profile&&重启配置"
sed -i '$a # \nexport KE_HOME='$efak'/efak-web-3.0.1 \nexport PATH=$PATH:$KE_HOME/bin' /etc/profile
source /etc/profile
chmod +x $efak/efak-web-3.0.1/bin/ke.sh
mv $efak/efak-web-3.0.1/conf/system-config.properties $efak/efak-web-3.0.1/conf/system-config.properties.txt

echo "编辑efak配置文件"
cat << EOF >> $efak/efak-web-3.0.1/conf/system-config.properties
######################################
# multi zookeeper & kafka cluster list
# Settings prefixed with 'kafka.eagle.' will be deprecated, use 'efak.' instead
######################################
efak.zk.cluster.alias=cluster1
cluster1.zk.list=node2:2181,node3:2181,node4:2181/myKafka

###################################
# zookeeper enable acl
######################################
cluster1.zk.acl.enable=false
cluster1.zk.acl.schema=digest
cluster1.zk.acl.username=admin
cluster1.zk.acl.password=admin
######################################
# broker size online list
######################################
cluster1.efak.broker.size=20

######################################
# zk client thread limit
######################################
kafka.zk.limit.size=16

######################################
# EFAK webui port
######################################
efak.webui.port=8048

######################################
# EFAK enable distributed
######################################
efak.distributed.enable=false
efak.cluster.mode.status=master
efak.worknode.master.host=localhost
efak.worknode.port=8085

######################################
# kafka jmx acl and ssl authenticate
######################################
cluster1.efak.jmx.acl=false
cluster1.efak.jmx.user=keadmin
cluster1.efak.jmx.password=keadmin123
cluster1.efak.jmx.ssl=false
cluster1.efak.jmx.truststore.location=/data/ssl/certificates/kafka.truststore
cluster1.efak.jmx.truststore.password=ke123456

######################################
# kafka offset storage
######################################
cluster1.efak.offset.storage=kafka
cluster2.efak.offset.storage=zk

######################################
# kafka jmx uri
######################################
cluster1.efak.jmx.uri=service:jmx:rmi:///jndi/rmi://%s/jmxrmi

######################################
# kafka metrics, 15 days by default
efak.metrics.charts=true
efak.metrics.retain=15

######################################
# kafka sql topic records max
######################################
efak.sql.topic.records.max=5000
efak.sql.topic.preview.records.max=10

######################################
# delete kafka topic token
######################################
efak.topic.token=keadmin

######################################
# kafka sasl authenticate
######################################
cluster1.efak.sasl.enable=true
cluster1.efak.sasl.protocol=SASL_PLAINTEXT
cluster1.efak.sasl.mechanism=PLAIN
cluster1.efak.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="admin" password="admin";
cluster1.efak.sasl.client.id=
cluster1.efak.blacklist.topics=
cluster1.efak.sasl.cgroup.enable=false
cluster1.efak.sasl.cgroup.topics=

####################################
######################################
# kafka sqlite jdbc driver address
######################################
efak.driver=org.sqlite.JDBC
efak.url=jdbc:sqlite:/hadoop/kafka-eagle/db/ke.db
efak.username=root
efak.password=www.kafka-eagle.org

######################################
# kafka mysql jdbc driver address
######################################
efak.driver=com.mysql.cj.jdbc.Driver
efak.url=jdbc:mysql://$mysqlip:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
efak.username=root
efak.password=123Asd
EOF

echo"启动efak的脚本"
$efak/efak-web-3.0.1/bin/ke.sh start

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kafka EFak是一个用于管理和监控Kafka集群的工具。根据引用,EFak是一个在阿里云服务器上部署的UI,用于监控Kafka集群的内存、CPU使用情况以及版本信息。通过EFak,你可以实时查看Kafka集群的运行状态和性能指标。 根据引用,可能出现展示异常的原因是Kafka broker的JMX端口被禁用,导致无法获取Kafka的版本信息以及内存和CPU使用情况。这可能是因为Kafka broker没有启用JMX端口或者端口被阻塞。如果JMX端口被禁用,EFak无法正确获取Kafka的信息,因此会显示异常。 为了统一配置的地方,根据引用,一些博客建议在kafka-server-start.sh文件中进行配置,但也可以将配置放在kafka-run-class.sh文件中。这样可以集中管理配置,方便维护。 总之,Kafka EFak是一个用于监控和管理Kafka集群的工具,可以实时查看Kafka集群的运行状态和性能指标。如果出现展示异常的情况,可能是因为Kafka broker的JMX端口被禁用,需要检查JMX配置并确保端口可用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Kafka监控EFAK(Kafka-eagle)部署与踩坑详细记录](https://blog.csdn.net/maoyuanming0806/article/details/127248506)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值