Kafka的安装和简单实例测试

Kafka的安装和简单实例测试

一、安装kafka

前提:事先将kafka_2.10-0.10.1.0.tgz安装包放入到~/下载目录下。

注:kafka的使用依赖zookeeper,安装kafka前必须先安装zookeeper, 下载稳定版本0.10.1.0的kafka.此安装包内已经附带zookeeper,不需要额外安装zookeeper.

1.     进入~/下载  目录,查看安装包是否存在

$>cd ~/下载

$>ls

2.     解压安装包到/usr/local下

$>sudo tar –zxf kafka_2.10-0.10.1.0.tgz –C /usr/local

3.     修改文件名和文件的拥有者

$> sudo mv kafka_2.10-0.10.1.0/ kafka

$>sudo chown -R hadoop:hadoop kafka/

进入测试前,需要了解一些关于kafka的相关核心概念知识。

1. Broker

Kafka集群包含一个或多个服务器,这种服务器被称为broker

2. Topic

每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。(物理上不同Topic的消息分开存储,逻辑上一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消费数据而不必关心数据存于何处)

3. Partition

Partition是物理上的概念,每个Topic包含一个或多个Partition.

4. Producer

负责发布消息到Kafka broker

5. Consumer

消息消费者,向Kafka broker读取消息的客户端。

6. Consumer Group

每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定group name则属于默认的group)

二、简单实例测试

1.     新开一个终端,启动zookeeper

$>cd /usr/local/kafka/

$>./bin/zookeeper-server-start.shconfig/zookeep.properties

这个终端不能关闭,打开第一个终端,使用jps查看进程,看QuorumPeerMain进程(zookeeper)是否启动。

2.     另开一个终端,启动kafka服务

$>cd /usr/local/kafka/

$> ./bin/kafka-server-start.sh config/server.properties

 

这个终端也不能关闭,打开第一个终端,使用jps查看kafka进程是否启动成功。

3.     创建一个dblab的topic

cd /usr/local/kafka/

/usr/local/kafka$ ./bin/kafka-topics.sh --create--zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic dblab

//这个topic叫dblab,2181是zookeeper默认的端口号,partition是topic里面的分区数,replication-factor是备份的数量,在kafka集群中使用,这里单机版就不用备份了

4.     查看dblab是否创建成功

./bin/kafka-topics.sh --list --zookeeper localhost:2181

5.     打开producer产生一些数据

$>/usr/local/kafka$./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic dblab

在终端内输入以下内容:

hello hadoop

hello mao

haoop world

6.     新开一个终端,使用consumer来接受数据

$>cd /usr/local/kafka

$>./bin/kafka-console-consumer.sh --zookeeperlocalhost:2181 --topic dblab --from-beginning

使用该命令后,终端上会显示我们刚刚输入的英文单词。

详细步骤,包含实验步骤截图,word下载地址https://download.csdn.net/download/weixin_42006411/10485324


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
ZooKeeper 和 Kafka 是两个常用的大数据组件,它们在分布式系统中扮演着关键角色。 **Zookeeper 安装**: ZooKeeper 是一个分布式协调服务,主要用于维护配置信息、命名空间和提供同步服务。以下是基本的安装步骤: 1. **下载**: 访问 Apache ZooKeeper 的官方网站(https://zookeeper.apache.org/releases.html)下载适合你操作系统的二进制包。 2. **解压**: 解压缩下载的文件,并得到 `bin` 目录中的可执行文件。 3. **配置**: 配置 `conf/zoo.cfg` 文件,设置数据目录(dataDir)和其他配置项。 4. **启动**: 在 `bin` 目录下执行 `zkServer.sh start`(Linux/Mac)或 `zkServer.cmd start`(Windows)开始服务。 5. **验证**: 使用 `zkCli.sh` 或 `bin/zkServer.sh status` 来检查服务是否运行正常。 **Kafka 安装**: Kafka 是一个分布式流处理平台,用于高吞吐量的实时数据管道。以下是安装 Kafka 的一般步骤: 1. **下载**: 从 Apache Kafka 官网下载最新的二进制包。 2. **配置**: 设置环境变量,编辑 `config/server.properties` 文件,定义 brokers、主题、分区等。 3. **创建实例**: 创建一个或多个 Kafka 服务器,可以通过 `bin/kafka-server-start.sh` 命令启动。 4. **生产者与消费者**: 使用 `bin/kafka-console-producer.sh` 和 `bin/kafka-console-consumer.sh` 进行简单的生产消费测试。 5. **集群部署**: 如果需要分布式部署,配置多台机器并使用 `kafka-topics.sh` 命令创建和管理主题。 **相关问题--:** 1. ZooKeeper 和 Kafka大数据场景中分别负责什么? 2. 如何在生产环境中安全地部署和管理多节点的 Kafka 集群? 3. 在使用 Kafka 时,如何保证消息的可靠性和顺序性?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值