kafka 分组消费topic_Kafka 详解

本文深入解析Kafka,一个分布式消息系统,用于实时数据流处理。介绍了Kafka的特性、安装步骤、创建主题、启动消费者与生产者,以及确保消息不丢失的策略,包括producer的acks配置、consumer的offset管理和broker的副本设置。通过理解这些概念,能更好地利用Kafka实现高效且可靠的数据传输。
摘要由CSDN通过智能技术生成

kafka简介

Kafka是最初由Linkedin公司开发,是一个分布式、支持分区的(partition)、多副本的(replica),基于zookeeper协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、storm/Spark流式处理引擎,web/nginx日志、访问日志,消息服务等等,用scala语言编写,Linkedin于2010年贡献给了Apache基金会并成为顶级开源 项目。

关键词分布式流处理平台。

在系统之间构建实时数据流管道。

以topic分类对记录进行存储

每个记录包含key-value+timestamp

每秒钟百万消息吞吐量。

安装kafka

0.选择三台主机安装kafka

1.准备zk

2.jdk

3.tar文件

4.环境变量

5.配置kafka

[kafka/config/server.properties]

...

broker.id=201

...

listeners=PLAINTEXT://:9092

...

log.dirs=/home/centos/kafka/logs

...

zookeeper.connect=s201:2181,s202:2181,s203:2181

6.分发server.properties,同时修改每个文件的broker.id

7.启动kafka服务器

a)先启动zk

b)启动kafka

[s202 ~ s204]

$>bin/kafka-server-start.sh -daemon config/server.properties

c)验证kafka服务器是否启动

$>netstat -anop | grep 9092

8.创建主题

$>bin/kafka-topics.sh --create --zookeeper s201:2181 --replication-factor 3 --partitions 3 --topic test

9.查看主题列表

$>bin/kafka-topics.sh --list --zookeeper s201:2181

10.启动控制台生产者

$>bin/kafka-console-producer.sh --broker-list s202:9092 --topic test

11.启动控制台消费者

$>bin/kafka-console-consumer.sh --bootstrap-server s202:9092 --topic test --from-beginning --zookeeper s202:2181

12.在生产者控制台输入hello world

kafka 的使用场景埋点日志的收集一个公司可以用Kafka可以收集各种服务的log。

消息系统:解耦和生产者和消费者、缓存消息等。

用户活动跟踪:Ka

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值