四十三、Kafka的安装部署与基本操作

上篇文章我们简单介绍了一下Kafka相关的知识,这篇文章我们来实际的安装一下Kafka并进行一下基本的操作。关注专栏《破茧成蝶——大数据篇》,查看更多相关的内容~


目录

一、安装Kafka

1.1 安装包准备

1.2 解压

1.3 修改配置文件

1.4 配置环境变量

1.5 分发安装包并配置其余节点的环境变量

1.6 修改其余节点的broker id

1.7 启动Kafka集群

二、Kafka基本操作


一、安装Kafka

1.1 安装包准备

首先需要去Kafka的官网下载Kafka的安装包,请戳这里进行下载。

将下载的好的tar包上传到服务器中,这里我们放到/opt/software目录下:

1.2 解压

解压安装包,并修改名称为kafka:

tar -zxvf ./kafka_2.11-0.11.0.2.tgz -C ../modules/

mv kafka_2.11-0.11.0.2 kafka

1.3 修改配置文件

在kafka的config目录下修改server.properties配置文件:

############################# Server Basics #############################

# The id of the broker. This must be set to a unique integer for each broker.
broker.id=0

# Switch to enable topic deletion or not, default value is false
delete.topic.enable=true


############################# Log Basics #############################

# A comma seperated list of directories under which to store log files
log.dirs=/opt/modules/kafka/logs


############################# Zookeeper #############################

# Zookeeper connection string (see zookeeper docs for details).
# This is a comma separated host:port pairs, each corresponding to a zk
# server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".
# You can also append an optional chroot string to the urls to specify the
# root directory for all kafka znodes.
zookeeper.connect=master:2181,slave01:2181,slave02:2181

在kafka目录下新建logs目录用来存放日志信息:

mkdir logs

1.4 配置环境变量

vim /etc/profile


##KAFKA_HOME
export KAFKA_HOME=/opt/modules/kafka
export PATH=$PATH:$KAFKA_HOME/bin


source /etc/profile

1.5 分发安装包并配置其余节点的环境变量

[root@master modules]# xsync kafka/

1.6 修改其余节点的broker id

1.7 启动Kafka集群

这里需要注意的是:启动Kafka集群之前,需要先启动Zookeeper,使用如下命令启动Zookeeper:

bin/zkServer.sh start

使用如下命令启动Kafka集群:

bin/kafka-server-start.sh -daemon config/server.properties

使用如下命令停止Kafka集群:

bin/kafka-server-stop.sh stop

二、Kafka基本操作

1、查看集群中的topic

kafka-topics.sh --zookeeper master:2181 --list

2、创建topic

kafka-topics.sh --zookeeper master:2181 --create --replication-factor 3 --partitions 1 --topic test

3、查看topic的详细情况

kafka-topics.sh --zookeeper master:2181 --describe --topic test

4、生产消费数据

使用如下命令启动生产者:

kafka-console-producer.sh --broker-list master:9092 --topic test

使用如下命令启动消费者:

kafka-console-consumer.sh --bootstrap-server master:9092 --from-beginning --topic test

生产消费数据如下所示:

其中需要注意的是,--from-beginning参数会把主题中以往所有的数据都读取出来。

5、修改分区数

kafka-topics.sh --zookeeper master:2181 --alter --topic test --partitions 6

这里需要注意的是,分区数只能增加,不能减少。

6、删除topic

kafka-topics.sh --zookeeper master:2181 --delete --topic test

 

本文到此已经接近尾声了,本文主要讲述了Kafka的安装以及一些基本操作。你们在此过程中遇到了什么问题,欢迎留言,让我看看你们都遇到了哪些问题~

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

象在舞

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值