Kafka集群部署

1)解压安装包

tar -zxvf kafka_2.11-0.11.0.0.tgz

2)修改解压后的文件名称

 mv kafka_2.11-0.11.0.0/ kafka

3)在/opt/module/kafka目录下创建logs文件夹

mkdir logs

4)修改配置文件

cd config/
​
vim server.properties

输入以下内容:

注:千万不要有空格

#broker的全局唯一编号,不能重复
broker.id=0
#删除topic功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka运行日志存放的路径 
log.dirs=/opt/kafka/logs
#topic在当前broker上的分区个数
num.partitions=1
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接Zookeeper集群地址
zookeeper.connect=wt01:2181,wt02:2181,wt03:2181
192.168.20.32:2181,192.168.20.33:2181,192.168.20.34:2181

5)配置环境变量

vim /etc/profile
#KAFKA_HOME
export KAFKA_HOME=/opt/kafka
export PATH=$PATH:$KAFKA_HOME/bin
​
刷新环境变量
source /etc/profile

6)分发安装包

xsync kafka/

注意:分发之后记得配置其他机器的环境变量

7)分配

分别在gz005和gz006上修改配置文件vim /opt/kafka/config/server.properties中的
broker.id=1  broker.id=2

注:broker.id不得重复

8)启动集群

首先启动zookeeper集群

启动 Server
三个节点都需要执行,没有一键启动的脚本

/opt/zookeeper/bin/zkServer.sh start

依次在gz004、gz005、gz006节点上启动kafka

在kafka目录运行 

# bin/kafka-server-start.sh -daemon config/server.properties

9)关闭集群

 bin/kafka-server-stop.sh stop

Kafka命令行操作

1)查看当前服务器中的所有topic

bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --list

查看某个topic里的数据

bin/kafka-console-consumer.sh --bootstrap-server 192.167.30.21:9092 --topic topicName --from-beginning

2)创建topic

bin/kafka-topics.sh --zookeeper 192.168.20.32:2181 --create --replication-factor 3 --partitions 1 --topic t01

选项说明:

--topic 定义topic名

--replication-factor 定义副本数

--partitions 定义分区数

3)删除topic

 bin/kafka-topics.sh --zookeeper 192.168.20.32:2181 --delete --topic t01

需要server.properties中设置delete.topic.enable=true否则只是标记删除或者直接重启。

4)发送消息

 bin/kafka-console-producer.sh \
​
--broker-list gz004:9092 --topic first
​
\>hello world

5)消费消息

 bin/kafka-console-consumer.sh \
​
--zookeeper hadoop102:2181 --from-beginning --topic first

--from-beginning:会把first主题中以往所有的数据都读取出来。根据业务场景选择是否增加该配置。

6)查看某个Topic的详情

bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 \

--describe --topic first                              

kafka与flume连接

1.启动zookeeper  三个主机都启动
 /opt/zookeeper/bin/zkServer.sh start
2.启动kafka 三个主机都启动  启动后不要退出,在在三台主机基础上复制三个xshell窗口进行下面的操作。
   
 /opt/kafka/bin/kafka-server-start.sh /opt/kafka/config/server.properties
3.在opt目录下放入flume的安装包
4.创建一个access.log文件 在里面输入信息
5.将access.log 文件放入到 /opt下  这边的文件跟fk.conf的source路径有关

6.将fk.conf 放入到flume下的 /opt/flume/conf  目录下。
# define
​
a1.sources = r1
a1.sinks = k1
a1.channels = c1
​
# source
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F -c +0 /opt/access.log
a1.sources.r1.shell = /bin/bash -c
​
# sink
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.brokerList = wt01:9092,wt02:9092,wt03:9092
a1.sinks.k1.topic = t02
a1.sinks.k1.flumeBatchSize = 20
a1.sinks.k1.producer.acks = 1
a1.sinks.k1.producer.linger.ms = 1
​
# channel
a1.channels.c1.type = memory
a1.channels.c1.capacity = 10000
a1.channels.c1.transactionCapacity = 1000
​
# bind
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
7.创建 topic
bin/kafka-topics.sh --zookeeper wt01:2181 --create --replication-factor 3 --partitions 1 --topic t03
8.在gz006主机中进入到t02 消费消息模式 
bin/kafka-console-consumer.sh --zookeeper wt01:2181 --from-beginning --topic t03
9.在gz004主机上运行flume配置文件
 bin/flume-ng agent -c conf -f conf/fk.conf -Dflume.root.logger=DEBUG,console -n al
10.再次复制一个gz004xshell端口,进入到/opt/kafka/logs 查看t02-0 中的日志

kafka监控工具

1)启动集群

zookeeper集群

 /opt/zookeeper/bin/zkServer.sh start

kafka集群

bin/kafka-server-start.sh config/server.properties

2)把 KafkaOffsetMonitor-assembly-0.2.0.jar 放到kafka的lib目录下

3)运行命令

java -cp /opt/kafka/libs/KafkaOffsetMonitor-assembly-0.2.0.jar com.quantifind.kafka.offsetapp.OffsetGetterWeb --zk wt01:2181 --port 9000 --refresh 10.seconds --retain 1.days

4)访问 wt01:9000

Kafka Eagle安装及使用

参考网址:blog.csdn.net/locky_lll/article/details/104840827

1)kafka-eagle-bin-1.2.4.tar.gz 放到opt下解压

tar -zxvf kafka-eagle-web-1.2.4-bin.tar.gz

2)设置全局变量 vim /etc/profile

#添加代码

export KE_HOME=/opt/kafka-eagle-web-1.2.4 
export PATH=$PATH:$KE_HOME/bin

#刷新 source /etc/profile

3)进入kafka-eagle的conf目录下修改配置文件

#修改配置文件 vim system-config.properties

#修改

kafka.eagle.driver=com.mysql.jdbc.Driver
kafka.eagle.url=jdbc:mysql://wt01:3306/kafka-eagle (数据库名字)
kafka.eagle.username=root
kafka.eagle.password=123456

4)文件配置完毕后开始启动 ,启动要进入bin目录下

#进入bin目录后会看到 ke.sh 文件先修改文件的权限 chmod -x ke.sh

#启动命令 ./ke.sh start 启动成功后的控制台输出 http://wt01:8048/ke/

hive要启动

 ./hive --service metastore &

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱吃旺仔őő糖的崽崽

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值