分布式消息队列Kafka

 

  • 基本概念

主题:好比数据库表,或者系统中文件夹

分区:一个主题可以分若干分区,同一个分区内可以保证有序

偏移量:一个不断递增的整数值,每个分区的偏移量是唯一的

broker:一个独立的kafka服务器

MirrorMaker工具:多集群间消息复制

Zookeeper:保存集群元数据和消费者信息,broker和主题元数据、消费者元数据分区偏移量

  • 硬件选择

磁盘吞吐量、磁盘容量、内存、网络、CPU

  • 生产者(KafkaProducer)

序列化:自定义序列化、Avro

分区:ProducerRecord对象包含了目标主题、键和值,

键有两个作用:可以作为消息的附加信息,也可以用来决定消息改写到主题的那个分区,拥有相当键的消息会被写到同一个分区。

消费者(KafkaConsumer)

消费者和消费者群组

kafka构建数据管道:数据段之间的大型缓存区

kafka是一个强大的消息总线,可以传递事件流,但是没有处理和转换事件的能力,kafka的可靠的传递能力让它成为流式处理系统的完美数据来源

flume是分布式的日志收集系统,它将各个服务器中的数据收集起来并送到指定的地方去

日志输出到flume,log4j里加上日志

业界比较典型的一中用法是:

线上数据 -> flume -> kafka -> hdfs -> MR离线计算 或者:

线上数据 -> flume -> kafka -> storm

简单点概括 flume类似于管道,kafka类似于消息队列。之所以题主觉得类似大概是因为都能用于数据传输

Flume和Kafka应该结合来使用,Flume作为日志收集端,Kafka作为日志消费端。

Flume的Source-Channel-Sink模型,非常适合作为日志收集的模型

kafka常用命令:

创建topic

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

展示topic

bin/kafka-topics.sh --list --zookeeper localhost:2181

描述topic

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic

生产者:

bin/kafka-console-producer.sh --broker-list 130.51.23.95:9092 --topic my-replicated-topic

消费者:

bin/kafka-console-consumer.sh --zookeeper 130.51.23.95:2181 --topic test --from-beginnin

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值