kafka基础

目录

1 kafka是什么

2 JMS是什么

2.1 JMS的基础

2.2 JMS消息传输模型

2.3 JMS核心组件

2.4 常见的JMS消息服务器

2.4.1 JMS消息服务器ActiveMQ

2.4.2 分布式消息中间件Metamorphosis

2.4.3 分布式消息中间件RocketMQ

2.4.4 其他MQ

3 为什么需要消息队列

4 kafka核心组件

5 kafka集群部署

5.1 集群部署的基本流程

5.2 集群部署的基础环境准备

5.3 kafka集群部署

5.3.1 下载安装包

5.3.2 解压安装包

5.3.3 修改配置文件

5.3.4 分发安装包

5.3.5 再次修改配置文件

5.3.6 启动集群

5.4 kafka常用操作命令

6 kafka的Java API

6.1 Producer生产者

6.2 Consumer消费者


1 kafka是什么

在流式计算中,Kafka一般用来缓存数据,Storm通过消费Kafka的数据进行计算。

KAFKA + STORM +REDIS

  1. Apache Kafka是一个开源消息系统,由Scala写成。是由Apache软件基金会开发的一个开源消息系统项目。
  2. Kafka最初是由LinkedIn开发,并于2011年初开源。2012年10月从Apache Incubator毕业。该项目的目标是为处理实时数据提供一个统一、高通量、低等待的平台。
  3. Kafka是一个分布式消息队列:生产者、消费者的功能。它提供了类似于JMS的特性,但是在设计实现上完全不同,此外它并不是JMS规范的实现
  4. Kafka对消息保存时根据Topic进行归类,发送消息者称为Producer,消息接受者称为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker。
  5. 无论是kafka集群,还是producer和consumer都依赖于zookeeper集群保存一些meta信息,来保证系统可用性

2 JMS是什么

2.1 JMS的基础

JMS是什么:JMS是Java提供的一套技术规范

JMS干什么用:用来异构系统 集成通信,缓解系统瓶颈,提高系统的伸缩性增强系统用户体验,使得系统模块化和组件化变得可行并更加灵活

通过什么方式:生产消费者模式(生产者、服务器、消费者)

jdk,kafka,activemq……

2.2 JMS消息传输模型

1.点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除)

点对点模型通常是一个基于拉取或者轮询的消息传送模型,这种模型从队列中请求信息,而不是将消息推送到客户端。这个模型的特点是发送到队列的消息被一个且只有一个接收者接收处理,即使有多个消息监听者也是如此。

2.发布/订阅模式(一对多,数据生产后,推送给所有订阅者)

发布订阅模型则是一个基于推送的消息传送模型。发布订阅模型可以有多种不同的订阅者,临时订阅者只在主动监听主题时才接收消息,而持久订阅者则监听主题的所有消息,即时当前订阅者不可用,处于离线状态

queue.put(object)  数据生产

queue.take(object)    数据消费

2.3 JMS核心组件

  • Destination:消息发送的目的地,也就是前面说的Queue和Topic。
  • Message :从字面上就可以看出是被发送的消息。
  • Producer: 消息的生产者,要发送一个消息,必须通过这个生产者来发送。
  • MessageConsumer: 与生产者相对应,这是消息的消费者或接收者,通过它来接收一个消息。

通过与ConnectionFactory可以获得一个connection

通过connection可以获得一个session会话。

2.4 常见的JMS消息服务器

2.4.1 JMS消息服务器ActiveMQ

ActiveMQ 是Apache出品,最流行的,能力强劲的开源消息总线。ActiveMQ 是一个完全支持JMS1.1和J2EE 1.4规范的。

主要特点:

  1. 多种语言和协议编写客户端。语言: Java, C, C++, C#, Ruby, Perl, Python, PHP。应用协议: OpenWire,Stomp REST,WS Notification,XMPP,AMQP
  2. 完全支持JMS1.1和J2EE 1.4规范 (持久化,XA消息,事务)
  3. 对Spring的支持,ActiveMQ可以很容易内嵌到使用Spring的系统里面去,而且也支持Spring2.0的特性
  4. 通过了常见J2EE服务器(如 Geronimo,JBoss 4, GlassFish,WebLogic)的测试,其中通过JCA 1.5 resource adaptors的配置,可以让ActiveMQ可以自动的部署到任何兼容J2EE 1.4 商业服务器上
  5. 支持多种传送协议:in-VM,TCP,SSL,NIO,UDP,JGroups,JXTA
  6. 支持通过JDBC和journal提供高速的消息持久化
  7. 从设计上保证了高性能的集群,客户端-服务器,点对点
  8. 支持Ajax
  9. 支持与Axis的整合
  10. 可以很容易得调用内嵌JMS provider,进行测试

2.4.2 分布式消息中间件Metamorphosis

Metamorphosis (MetaQ) 是一个高性能、高可用、可扩展的分布式消息中间件,类似于LinkedIn的Kafka,具有消息存储顺序写、吞吐量大和支持本地和XA事务等特性,适用于大吞吐量、顺序消息、广播和日志数据传输等场景,在淘宝和支付宝有着广泛的应用,现已开源。

主要特点:

  1. 生产者、服务器和消费者都可分布
  2. 消息存储顺序写
  3. 性能极高,吞吐量大
  4. 支持消息顺序
  5. 支持本地和XA事务
  6. 客户端pull,随机读,利用sendfile系统调用,zero-copy ,批量拉数据
  7. 支持消费端事务
  8. 支持消息广播模式
  9. 支持异步发送消息
  10. 支持http协议
  11. 支持消息重试和recover
  12. 数据迁移、扩容对用户透明
  13. 消费状态保存在客户端
  14. 支持同步和异步复制两种HA
  15. 支持group commit

2.4.3 分布式消息中间件RocketMQ

RocketMQ 是一款分布式、队列模型的消息中间件,具有以下特点:

  1. 能够保证严格的消息顺序
  2. 提供丰富的消息拉取模式
  3. 高效的订阅者水平扩展能力
  4. 实时的消息订阅机制
  5. 亿级消息堆积能力
  6. Metaq3.0 版本改名,产品名称改为RocketMQ

2.4.4 其他MQ

  1. .NET消息中间件 DotNetMQ
  2. 基于HBase的消息队列 HQueue
  3. Go 的 MQ 框架 KiteQ
  4. AMQP消息服务器 RabbitMQ
  5. MemcacheQ 是一个基于 MemcacheDB 的消息队列服务器。

3 为什么需要消息队列

消息系统的核心作用就是三点:解耦,异步和并行

Apache Kafka与传统消息系统相比,有以下不同:

  1. 它是分布式系统,易于向外扩展;
  2. 它同时为发布和订阅提供高吞吐量;
  3. 它支持多订阅者,当失败时能自动平衡消费者;
  4. 它将消息持久化到磁盘,因此可用于批量消费,例如ETL,以及实时应用程序。容错

4 kafka核心组件

术语

解释

Broker

Kafka集群包含一个或多个服务器,这种服务器被称为broker

Topic

每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。(物理上不同Topic的消息分开存储,逻辑上一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消费数据而不必关心数据存于何处)

Partition

Partition是物理上的概念,每个Topic包含一个或多个Partition.

Producer

负责发布消息到Kafka broker

Consumer

消息消费者,向Kafka broker读取消息的客户端

Consumer Group

每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定group name则属于默认的group)

replica

partition 的副本,保障 partition 的高可用

leader

replica 中的一个角色, producer 和 consumer 只跟 leader 交互

follower

replica 中的一个角色,从 leader 中复制数据

controller

Kafka 集群中的其中一个服务器,用来进行 leader election 以及各种 failover

小白理解:

  • producer:生产者,就是它来生产“鸡蛋”的。
  • consumer:消费者,生出的“鸡蛋”它来消费。
  • topic:把它理解为标签,生产者每生产出来一个鸡蛋就贴上一个标签(topic),消费者可不是谁生产的“鸡蛋”都吃的,这样不同的生产者生产出来的“鸡蛋”,消费者就可以选择性的“吃”了。
  • broker:就是篮子了。

如果从技术角度,topic标签实际就是队列,生产者把所有“鸡蛋(消息)”都放到对应的队列里了,消费者到指定的队列里取。

5 kafka集群部署

5.1 集群部署的基本流程

下载安装包、解压安装包、修改配置文件、分发安装包、启动集群

5.2 集群部署的基础环境准备

安装前的准备工作(zk集群已经部署完毕)

1.关闭防火墙

chkconfig iptables off  && setenforce 0

2.创建用户

groupadd realtime && useradd realtime && usermod -a -G realtime realtime

3.创建工作目录并赋权

mkdir /export

mkdir /export/servers

chmod 755 -R /export

4.切换到realtime用户下

su realtime

5.3 kafka集群部署

5.3.1 下载安装包

http://kafka.apache.org/downloads.html

在linux中使用wget命令下载安装包

  wget http://mirrors.hust.edu.cn/apache/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz

5.3.2 解压安装包

tar -zxvf /export/software/kafka_2.11-0.8.2.2.tgz -C /export/servers/

cd /export/servers/

ln -s kafka_2.11-0.8.2.2 kafka

5.3.3 修改配置文件

cp   /export/servers/kafka/config/server.properties

/export/servers/kafka/config/server.properties.bak

vi  /export/servers/kafka/config/server.properties

输入以下内容:

vi server.properties

broker.id=1    //为依次增长的:0、1、2、3、4,集群中唯一id

log.dirs=/root/kafkaData/   // Kafka的消息数据存储路径

zookeeper.connect=hdp-01:2181,hdp-02:2181,hdp-03:2181   //zookeeperServers列表,各节点以逗号分开

delete.topic.enable=true

listeners=PLAINTEXT://hdp-01:9092

num.partitions=3

# 安装包分发

for i in 2 3 ; do scp -r kafka_2.11-0.10.2.1/ hdp-0$i:$PWD ;done

再其它几台节点上,分别修改该配置文件。

5.3.4 分发安装包

scp -r /export/servers/kafka_2.11-0.8.2.2 kafka02:/export/servers

然后分别在各机器上创建软连

cd /export/servers/

ln -s kafka_2.11-0.8.2.2 kafka

5.3.5 再次修改配置文件

依次修改各服务器上配置文件的的broker.id,分别是0,1,2不得重复。

5.3.6 启动集群

依次在各节点上启动kafka

bin/kafka-server-start.sh  config/server.properties

5.4 kafka常用操作命令

  • 查看当前服务器中的所有topic

   bin/kafka-topics.sh --list --zookeeper  zk01:2181

  • 创建topic

  ./kafka-topics.sh --create --zookeeper mini1:2181 --replication-factor 1 --partitions 3 --topic first

  • 删除topic

   sh bin/kafka-topics.sh --delete --zookeeper zk01:2181 --topic test

   需要server.properties中设置delete.topic.enable=true否则只是标记删除或者直接重启。

  • 通过shell命令发送消息

   kafka-console-producer.sh --broker-list kafka01:9092 --topic itheima

  • 通过shell消费消息

sh bin/kafka-console-consumer.sh --zookeeper zk01:2181 --from-beginning --topic test1

  • 查看消费位置

   sh kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper zk01:2181 --group testGroup

  • 查看某个Topic的详情

sh kafka-topics.sh --topic test --describe --zookeeper zk01:2181

6 kafka的Java API

pom.xml

<dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka_2.11</artifactId>
    <version>0.10.2.0</version>
</dependency>

<dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka-clients</artifactId>
    <version>0.10.2.0</version>
</dependency>

6.1 Producer生产者

public static void main(String[] args) throws Exception{

        String topic = "test";

        Properties props = new Properties();
        props.put("bootstrap.servers", "master:9092");

        //0是不获取反馈(消息有可能传输失败)
        //1是获取消息传递给leader后反馈(其他副本有可能接受消息失败)
        //-1 | all是所有in-sync replicas接受到消息时的反馈
        props.put("acks", "all");
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");


        KafkaProducer<String, String> kafkaProducer = new KafkaProducer<String, String>(props);

        for (int i = 0; i < 100; i++) {
            ProducerRecord<String, String> producerRecord = new ProducerRecord<String, String>(topic, "Key" + i, "message-" + i);
            kafkaProducer.send(producerRecord, new Callback() {
                public void onCompletion(RecordMetadata recordMetadata, Exception e) {
                    if (e != null) {
                        System.out.println("e = " + e.getMessage());
                    } else {
                        System.out.println("recordMetadata = " + recordMetadata.topic() +"" + recordMetadata.offset());
                    }
                }
            });
        }
        kafkaProducer.close();
    }

6.2 Consumer消费者

public static void main(String[] args) {

        Properties props = new Properties();
        props.put("bootstrap.servers", "master:9092");
        props.put("group.id", "test");
        props.put("enable.auto.commit", "true");
        props.put("auto.commit.interval.ms", "1000");
        props.put("session.timeout.ms", "30000");
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

        KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<String, String>(props);

        kafkaConsumer.subscribe(Arrays.asList("test"));

        while (true) {
            ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(100);
            for (ConsumerRecord<String, String> record : consumerRecords) {
                System.out.printf("offset = %d, key = %s, value = %s\\n", record.offset(), record.key(), record.value());
            }
        }
    }

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据私房菜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值