CentOS6安装大数据软件(三):Kafka集群的配置

目录

0. 相关文章链接

1. Kafka集群的安装准备

1.1. 选择安装Kafka的版本

1.2. 下载并解压安装包

2. 查看目录及修改配置文件

2.1. 查看目录

2.2. 修改配置文件

3. 分发配置文件及修改brokerid

4. 启动Kafka集群

5. 测试kafka集群

5.1. 创建一个topic

5.2. 查看该kafka集群中的topic

5.3. 创建一个生产者

5.4. 创建一个消费者

6. 查看Kafka集群(需借助外部工具kafka-manager)

6.1. 上传Kafka-manager安装包并且解压

6.2. 修改配置文件

6.3. 启动服务

6.4. 制作一键启动脚本

6.5. kafka-manager的使用

6.5.1. 添加Cluster

6.5.2. 在kafka-manager界面查看各主键的信息


0. 相关文章链接

CentOS6安装大数据软件(一):Linux基础软件的安装

CentOS6安装大数据软件(二):Hadoop分布式集群配置

CentOS6安装大数据软件(三):Kafka集群的配置

CentOS6安装大数据软件(四):HBase分布式集群的配置

CentOS6安装大数据软件(五):Flume安装与配置

CentOS6安装大数据软件(六):Hive安装和配置

CentOS6安装大数据软件(七):Hue大数据可视化工具安装和配置

CentOS6安装大数据软件(八):Spark集群安装和部署

CentOS6安装大数据软件(九):大数据及相关软件启动等命令

1. Kafka集群的安装准备

1.1. 选择安装Kafka的版本

由于kafka是scala语言编写的,基于scala的多个版本,kafka发布了多个版本。
其中2.11是推荐版本。

1.2. 下载并解压安装包

解压文件,删除之前的的安装记录,并重命名

tar -zxvf kafka_2.11-1.0.0.tgz -C /export/servers/
cd /export/servers/
rm -rf /export/servers/kafka
rm -rf /export/logs/kafka/
rm -rf /export/data/kafka
mv kafka_2.11-1.0.0 kafka

2. 查看目录及修改配置文件

2.1. 查看目录

2.2. 修改配置文件

进入配置目录,查看server.properties文件
可以通过cat server.properties |grep -v "#"目录过滤掉带有#的注释行数
修改三个地方
1)Borker.id
2)数据存放的目录,注意目录如果不存在,需要新建下。
3)zookeeper的地址信息

# broker.id 标识了kafka集群中一个唯一broker。
broker.id=0

# 存放生产者生产的数据 数据一般以topic的方式存放
# 创建一个数据存放目录 /export/data/kafka  ---  mkdir -p /export/data/kafka
log.dirs=/export/data/kafka

# 配置zk的信息
zookeeper.connect=zk01:2181,zk02:2181,zk03:2181

3. 分发配置文件及修改brokerid

将修改好的配置文件,分发到其他服务器上。
注意:如果在其他服务器上原先安装过kafka,需先删除以往的安装记录。

rm -rf /export/servers/kafka
rm -rf /export/logs/kafka/
rm -rf /export/data/kafka

分发安装包:

scp -r /export/servers/kafka/ node02:/export/servers/
scp -r /export/servers/kafka/ node03:/export/servers/

修改其他服务器上的broker.id

4. 启动Kafka集群

cd /export/servers/kafka/bin
./kafka-server-start.sh /export/servers/kafka/config/server.properties

5. 测试kafka集群

5.1. 创建一个topic

kafka-topics.sh --create --zookeeper node01:2181 --replication-factor 1 --partitions 1 --topic my-kafka-topic

#执行结果:
Created topic "my-kafka-topic".

参数说明:

  •  zookeeper:参数是必传参数,用于配置 Kafka 集群与 ZooKeeper 连接地址。至少写一个。
  •  partitions:参数用于设置主题分区数,该配置为必传参数。
  •  replication-factor:参数用来设置主题副本数 ,该配置也是必传参数。
  •  topic:指定topic的名称。

5.2. 查看该kafka集群中的topic

kafka-topics.sh --list --zookeeper node01.ouyang.com:2181

__consumer_offsets
my-kafka-topic

5.3. 创建一个生产者

bin/kafka-console-producer.sh --broker-list node01.ouyang.com:9092,node02.ouyang.com:9092,node02.ouyang.com:9092 --topic test

5.4. 创建一个消费者

bin/kafka-console-consumer.sh --zookeeper node01.ouyang.com:2181,node02.ouyang.com:2181,node03.ouyang.com:2181 --topic test --from-beginning(老版本)
bin/kafka-console-consumer.sh --bootstrap-server node01.ouyang.com:9092,node02.ouyang.com:9092,node03.ouyang.com:9092 --topic test --from-beginning(新版本)

6. 查看Kafka集群(需借助外部工具kafka-manager)

Kafka Manager 由 yahoo 公司开发,该工具可以方便查看集群 主题分布情况,同时支持对 多个集群的管理、分区平衡以及创建主题等操作。
源码托管于github:https://github.com/yahoo/kafka-manager

6.1. 上传Kafka-manager安装包并且解压

tar -xvf kafka-manager-1.3.3.17.tar.gz -C /export/servers/
cd /export/servers/kafka-manager-1.3.3.17/conf

6.2. 修改配置文件

/kafka-manager/conf下的application.conf文件
#在配置文件中新增如下配置,http访问服务的端口
http.port=19000
#修改成自己的zk机器地址和端口
kafka-manager.zkhost1s="node01:2181"
#保存退出

6.3. 启动服务

cd /export/servers/kafka-manager-1.3.3.17/bin
./kafka-manager -Dconfig.file=../conf/application.conf

6.4. 制作一键启动脚本

步骤一:配置该文件夹的环境变量和一键启动文件的环境变量
export KAFKA_MANAGE_HOME= /export/servers/kafka-manager
export PATH=${KAFKA_MANAGE_HOME}/bin:$PATH
export PATH=${ZK_ONEKEY}/kafka-manager:$PATH
步骤二:编写一键启动脚本
vim startkafkamanager.sh
nohup kafka-manager -Dconfig.file=${KAFKA_MANAGE_HOME}/conf/application.conf >/dev/null 2>&1 &
chmod +x start-kafka-manager.sh
步骤三:重新加载环境变量,并一键启动
source /etc/profile
startkafkamanager.sh
步骤四:检查是否启动成功
打开浏览器,输入地址:http://node01:19000/,即可看到kafka-manage管理界面。

6.5. kafka-manager的使用

6.5.1. 添加Cluster

进入管理界面,是没有显示Cluster信息的,需要添加后才能操作。

    1. 添加 Cluster:

      

    2. 输入Cluster Name、ZooKeeper信息、以及Kafka的版本信息(这里最高只能选择1.0.0)。

      

    3. 点击Save按钮保存。

      

6.5.2. 在kafka-manager界面查看各主键的信息

    1. 查看kafka的信息

      

    2. 查看Broker信息

      

    3. 查看Topic列表

      

    4. 查看单个topic信息以及操作

      

    5. 优化副本选举

      

    6. 查看消费者信息

      

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

电光闪烁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值