kafka安装步骤

一、kafka安装包

二、解压kafka安装包

三、修改配置文件

1.修改server.properties

2.修改producer.properties

3.修改consumer.properties

1、修改server.properties

       主要需要修改以下配置:

1)修改配置文件中的broker.id(注意保证该处broker.id和log日志meta.properties中的broker.id一致)

2)消息存储路径:log.dirs=/home/servers-kafka/logs/kafka

3)listeners=PLAINTEXT://192.168.1.251:9092

4)port=9092

5)advertised.listeners=PLAINTEXT://192.168.1.251:9092

#broker的全局唯一编号,不能重复

broker.id=0

 

#用来监听链接的端口,producer或consumer将在此端口建立连接

port=9092

 

#处理网络请求的线程数量

num.network.threads=3

 

#用来处理磁盘IO的线程数量

num.io.threads=8

 

#发送套接字的缓冲区大小

socket.send.buffer.bytes=102400

 

#接受套接字的缓冲区大小

socket.receive.buffer.bytes=102400

 

#请求套接字的缓冲区大小

socket.request.max.bytes=104857600

 

#kafka消息存放的路径

log.dirs=/home/servers-kafka/logs/kafka

 

#topic在当前broker上的分片个数

num.partitions=2

 

#用来恢复和清理data下数据的线程数量

num.recovery.threads.per.data.dir=1

 

#segment文件保留的最长时间,超时将被删除

log.retention.hours=168

 

#滚动生成新的segment文件的最大时间

log.roll.hours=168

 

#日志文件中每个segment的大小,默认为1G

log.segment.bytes=1073741824

 

#周期性检查文件大小的时间

log.retention.check.interval.ms=300000

 

#日志清理是否打开

log.cleaner.enable=true

 

#broker需要使用zookeeper保存meta数据

zookeeper.connect=hadoop02:2181,hadoop03:2181,hadoop04:2181

 

#zookeeper链接超时时间

zookeeper.connection.timeout.ms=6000

 

#partion buffer中,消息的条数达到阈值,将触发flush到磁盘

log.flush.interval.messages=10000

 

#消息buffer的时间,达到阈值,将触发flush到磁盘

log.flush.interval.ms=3000

 

#删除topic需要server.properties中设置delete.topic.enable=true否则只是标记删除

delete.topic.enable=true

 

#此处的host.name为本机IP(重要),如果不改,则客户端会抛出:Producerconnection to localhost:9092 unsuccessful 错误!

host.name=hadoop02

2、修改producer.properties

默认配置即可。

#指定kafka节点列表,用于获取metadata,不必全部指定

metadata.broker.list=hadoop02:9092,hadoop03:9092

 

# 指定分区处理类。默认kafka.producer.DefaultPartitioner,表通过key哈希到对应分区

#partitioner.class=kafka.producer.DefaultPartitioner

 

# 是否压缩,默认0表示不压缩,1表示用gzip压缩,2表示用snappy压缩。压缩后消息中会有头来指明消息压缩类型,故在消费者端消息解压是透明的无需指定。

compression.codec=none

 

# 指定序列化处理类

serializer.class=kafka.serializer.DefaultEncoder

 

# 如果要压缩消息,这里指定哪些topic要压缩消息,默认empty,表示不压缩。

#compressed.topics=

 

# 设置发送数据是否需要服务端的反馈,有三个值0,1,-1

# 0: producer不会等待broker发送ack

# 1: 当leader接收到消息之后发送ack

# -1: 当所有的follower都同步消息成功后发送ack.

request.required.acks=0

 

#在向producer发送ack之前,broker允许等待的最大时间 ,如果超时,broker将会向producer发送一个error ACK.意味着上一次消息因为某种原因未能成功(比如follower未能同步成功)

request.timeout.ms=10000

 

# 同步还是异步发送消息,默认“sync”表同步,"async"表异步。异步可以提高发送吞吐量,

也意味着消息将会在本地buffer中,并适时批量发送,但是也可能导致丢失未发送过去的消息

producer.type=sync

 

# 在async模式下,当message被缓存的时间超过此值后,将会批量发送给broker,默认为5000ms

# 此值和batch.num.messages协同工作.

queue.buffering.max.ms = 5000

 

# 在async模式下,producer端允许buffer的最大消息量

# 无论如何,producer都无法尽快的将消息发送给broker,从而导致消息在producer端大量沉积

# 此时,如果消息的条数达到阀值,将会导致producer端阻塞或者消息被抛弃,默认为10000

queue.buffering.max.messages=20000

 

# 如果是异步,指定每次批量发送数据量,默认为200

batch.num.messages=500

 

# 当消息在producer端沉积的条数达到"queue.buffering.max.meesages"后

# 阻塞一定时间后,队列仍然没有enqueue(producer仍然没有发送出任何消息)

# 此时producer可以继续阻塞或者将消息抛弃,此timeout值用于控制"阻塞"的时间

# -1: 无阻塞超时限制,消息不会被抛弃

# 0:立即清空队列,消息被抛弃

queue.enqueue.timeout.ms=-1

 

 

# 当producer接收到error ACK,或者没有接收到ACK时,允许消息重发的次数

# 因为broker并没有完整的机制来避免消息重复,所以当网络异常时(比如ACK丢失)

# 有可能导致broker接收到重复的消息,默认值为3.

message.send.max.retries=3

 

# producer刷新topicmetada的时间间隔,producer需要知道partitionleader的位置,以及当前topic的情况

# 因此producer需要一个机制来获取最新的metadata,当producer遇到特定错误时,将会立即刷新

#(比如topic失效,partition丢失,leader失效等),此外也可以通过此参数来配置额外的刷新机制,默认值600000

topic.metadata.refresh.interval.ms=60000

3、consumer.properties

默认配置即可。

# zookeeper连接服务器地址

zookeeper.connect=hadoop02:2181,hadoop03:2181,hadoop04:2181

 

# zookeeper的session过期时间,默认5000ms,用于检测消费者是否挂掉

zookeeper.session.timeout.ms=5000

 

#当消费者挂掉,其他消费者要等该指定时间才能检查到并且触发重新负载均衡

zookeeper.connection.timeout.ms=10000

 

# 指定多久消费者更新offset到zookeeper中。注意offset更新时基于time而不是每次获得的消息。一旦在更新zookeeper发生异常并重启,将可能拿到已拿到过的消息

zookeeper.sync.time.ms=2000

 

#指定消费组

group.id=xxx

 

# 当consumer消费一定量的消息之后,将会自动向zookeeper提交offset信息

# 注意offset信息并不是每消费一次消息就向zk提交一次,而是现在本地保存(内存),并定期提交,默认为true

auto.commit.enable=true

 

# 自动更新时间。默认60 * 1000

auto.commit.interval.ms=1000

 

# 当前consumer的标识,可以设定,也可以有系统生成,主要用来跟踪消息消费情况,便于观察

conusmer.id=xxx

 

# 消费者客户端编号,用于区分不同客户端,默认客户端程序自动产生

client.id=xxxx

 

# 最大取多少块缓存到消费者(默认10)

queued.max.message.chunks=50

 

# 当有新的consumer加入到group时,将会reblance,此后将会有partitions的消费端迁移到新  的consumer上,如果一个consumer获得了某个partition的消费权限,那么它将会向zk注册"Partition Owner registry"节点信息,但是有可能此时旧的consumer尚没有释放此节点, 此值用于控制,注册节点的重试次数.

rebalance.max.retries=5

 

# 获取消息的最大尺寸,broker不会像consumer输出大于此值的消息chunk 每次feth将得到多条消息,此值为总大小,提升此值,将会消耗更多的consumer端内存

fetch.min.bytes=6553600

 

# 当消息的尺寸不足时,server阻塞的时间,如果超时,消息将立即发送给consumer

fetch.wait.max.ms=5000

socket.receive.buffer.bytes=655360

 

# 如果zookeeper没有offset值或offset值超出范围。那么就给个初始的offset。有smallest、largest、anything可选,分别表示给当前最小的offset、当前最大的offset、抛异常。默认largest

auto.offset.reset=smallest

 

# 指定序列化处理类

derializer.class=kafka.serializer.DefaultDecoder

4、meta.properties

修改配置文件中的broker.id,保证与server.properties中的broker.id一致即可

四、设置多个节点

        以上的步骤我们操作了一个节点,还有两个节点,我们可以直接将刚刚配置好的直接分发到其它两个节点。因为配置文件都是一样的,唯一不同的是 borker.id不同就行。(以下的命令中,hadoop03和hadoop04是我另外两个节点的别名,如果你们没起别名,可以用节点的ip代替。)

scp –r /usr/local/ kafka_2.11-0.9.0.1 hadoop03:/usr/local

scp –r /usr/local/ kafka_2.11-0.9.0.1 hadoop04:/usr/local

修改其他两个节点中的server.properties中的 broker.id,分别设置为 0,1,2

五、启动kafka

1、首先,启动一个动物园管理员节点。为此,请导航到该<KAFKA_HOME>目录并发出以下命令。

./bin/zookeeper-server-start.sh ./config/zookeeper.properties

2、接下来,启动一个 Kafka 服务器节点。为此,请从同一目录发出以下命令。

./bin/kafka-server-start.sh ./config/server.properties

3、要创建名为 的 Kafka 主题houston,请从同一目录发出以下命令。

./bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic houston

4、houston要在Kafka主题中生成消息,请执行以下步骤:

(1)<KAFKA_HOME>要运行 Kafka 命令行客户端,请从目录发出以下命令。

./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic houston

(2)当系统提示您在控制台中键入消息时。在命令提示符中键入以下内容。

{"event":{ "temperature":23, "humidity":99}}

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 1. 下载并安装Java环境(Kafka需要Java运行) 2. 下载Kafka安装包(https://kafka.apache.org/downloads) 3. 解压安装包到指定目录 4. 进入安装目录,打开命令行窗口 5. 输入命令:.\bin\windows\zookeeper-server-start.bat .\config\zookeeper.properties 启动zookeeper服务 6. 开启另一个命令行窗口,输入命令:.\bin\windows\kafka-server-start.bat .\config\server.properties 启动kafka服务 7. 在命令行窗口中输入命令:.\bin\windows\kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test 创建一个名为“test”的topic 8. 开启另一个命令行窗口,输入命令:.\bin\windows\kafka-console-producer.bat --broker-list localhost:9092 --topic test 启动生产者 9. 开启另一个命令行窗口,输入命令:.\bin\windows\kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test --from-beginning 启动消费者 10. 在生产者窗口中输入消息,在消费者窗口中可以看到接收到的消息。 注意: 以上步骤假设你已经安装了java环境,并且系统已经配置好了JAVA_HOME环境变量. ### 回答2: Kafka是一个高性能、分布式、可伸缩的消息队列系统,适用于大数据流实时处理场景,被广泛应用于互联网、金融、电信等行业。本文将介绍Kafka在Windows系统下的安装步骤。 1. 安装Java环境 首先需要在Windows系统中安装Java环境,建议安装Java8或以上版本,可以通过命令行输入java -version来检查Java环境是否安装成功。 2. 下载Kafka安装包 在官网(https://kafka.apache.org/downloads)下载Kafka的二进制压缩包,解压到磁盘任意目录下。 3. 修改配置文件 进入Kafka解压目录,进入config文件夹,修改server.properties配置文件。主要修改如下: # 设置Kafka服务端口 listeners=PLAINTEXT://localhost:9092 # 设置Kafka日志存储位置 log.dirs=D:/kafka_2.12-2.7.0/data/kafka/logs # 设置Zookeeper连接地址 zookeeper.connect=localhost:2181 4. 启动Zookeeper 进入Kafka解压目录,进入bin\windows文件夹,双击运行zookeeper-server-start.bat脚本。 5. 启动Kafka 同样进入bin\windows文件夹,双击运行kafka-server-start.bat脚本,即可启动Kafka服务。此时如果出现报错,可以查看logs文件夹下的kafka-logs、zookeeper的日志信息。 6. 测试Kafka 打开命令行,进入Kafka的bin\windows目录,运行以下命令: # 创建名为test的topic kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test # 发布消息 kafka-console-producer.bat --broker-list localhost:9092 --topic test # 消费消息 kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test --from-beginning 若发布和消费消息成功,则说明Kafka在Windows系统上安装成功。 注意:由于Kafka需要在后台运行并且占用一定的内存资源,在生产环境中需要开启Kafka的守护进程,以保证Kafka的稳定运行。 ### 回答3: kafka是一个高性能、分布式的消息队列系统,可以用于处理海量的数据。在Windows操作系统上安装kafka并不复杂,下面将介绍详细的安装步骤。 1.下载kafka 首先需要下载kafka的压缩包,可以从官网上下载对应版本的kafka。下载完成后,解压到一个有意义的目录下。 2.配置环境变量 在解压kafka的目录下,找到“bin”文件夹,将其路径添加到系统环境变量中。方法是右键点击“计算机”,选择“属性”、“高级系统设置”、“环境变量”,在系统变量中找到“Path”变量,点击编辑,添加“bin”文件夹路径。 3.修改kafka配置 在kafka的解压目录下,找到“config”文件夹,打开“server.properties”文件,修改以下配置: - broker.id=0 # broker的唯一标识符,在集群部署时需要设置不同的值 - listeners=PLAINTEXT://localhost:9092 # kafka监听的主机名和端口 - log.dirs=D:/kafka/kafka-logs # kafka数据存储目录,也可以使用默认路径 - zookeeper.connect=localhost:2181 # zookeeper的连接地址,一般默认端口为2181 4.启动zookeeper 在kafka解压目录下找到“bin”文件夹,运行“zookeeper-server-start.bat”文件启动zookeeper服务。 5.启动kafka 同样在“bin”文件夹下,运行“kafka-server-start.bat”文件启动kafka服务。如果一切正常,可以在控制台看到kafka的启动信息。 6.创建主题 在kafka解压目录下找到“bin”文件夹,在命令行中运行“kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test”命令来创建一个名为“test”的主题。 7.发送和接收消息 运行“kafka-console-producer.bat --broker-list localhost:9092 --topic test”命令发送消息,运行“kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test --from-beginning”命令接收消息。 到此为止,kafka已经成功安装并运行在Windows操作系统上。在实际的生产环境中,需要按照需求进行配置和调整,以达到更好的性能和效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值