阿里云搭建大数据平台(9):kafka安装部署和测试

一、实现功能

Kafka是消息队列的一种实现。A模块发送数据到kafka, B模块从kafka中获取数据。 这样可以避免消息过多对处理消息服务器造成过大压力,消息可以先缓存在kafka然后,消费者从kafka中提取数据消费。

二、部署和配置

1.前提条件

(1) 搭建jdk环境 => jdk1.8.x
(2)搭建scala环境 => scala2.11.8
(3)搭建zookeeper=>zookeeper-3.4.5-cdh5.15.0

2.解压

tar -zxvf /opt/softwares/kafka_2.10-0.8.2.1.tgz -C /opt/modules/

3.更改config文件夹中的Kafka服务配置项:server.properties

broker.id=0
## 给定broker的id的值,在一个kafka集群中该参数必须唯一
port=9092 
## 监听的端口号,默认9092,需要保证改端口没有被使用
host.name=hadoop 
## 监听的主机名,默认是localhost,需要更改为hostname
log.dirs=/opt/modules/kafka_2.10-0.8.2.1/data/0 
## 指定kafka存储磁盘的路径,可以使用","分割,给定多个磁盘路径;如果服务器挂载多个磁盘,可以将kafka的数据分布存储到不同的磁盘中(每个磁盘写一个路径),对于Kafka的数据的读写效率有一定的提升(场景:高并发、大数据量的情况)
zookeeper.connect=hadoop:2181/kafka08 
## 配置kafka连接zk的相关信息,连接url以及kafka数据存储的zk根目录;这里的配置含义是:连接hadoop机器2181端口的zookeeper作为kafka的元数据管理zk,zk中使用/kafka08作为kafka元数据存储的根目录,默认kafka在zk中的根目录是zk的顶级目录("/")

如果有多个server.properties例如server1.properties,server2.properties,server3.properties,则依次累加一下三个参数

broker.id=1

port=9093

log.dirs=/opt/modules/kafka_2.10-0.8.2.1/data/1

备注:****

针对kafka_2.11-0.9.0.0,如果远程使用spark api连接,需要配置。否则,是消费是本地local的。

listeners=PLAINTEXT://hadoop:9092

针对:kafka_2.11-2.4.1的版本,参考文章

https://mp.csdn.net/mp_blog/creation/editor/82973573

4.启动kafka

(1)启动zk

bin/zkServer.sh start

(2)启动kafka

bin/kafka-server-start.sh config/server.properties

后台启动kafka

bin/kafka-server-start.sh -daemon config/server.properties
bin/kafka-server-start.sh -daemon config/server1.properties
bin/kafka-server-start.sh -daemon config/server2.properties
bin/kafka-server-start.sh -daemon config/server3.properties

(3)关闭Kafka服务

会将当前机器上的所有broker全部关闭

bin/kafka-server-stop.sh

(经测试,成功~)

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
一、项目简介 本项目教程以国内电商巨头实际业务应用场景为依托,同时以阿里云ECS服务器为技术支持,紧跟大数据主流场景,对接企业实际需求,对电商数仓的常见实战指标进行了详尽讲解,让你迅速成长,获取最前沿的技术经验。 二、项目架构 版本框架:Flume、DateHub、DataWorks、MaxCompute、MySql以及QuickBI等; Flume:大数据领域被广泛运用的日志采集框架; DateHub:类似于传统大数据解决方案中Kafka的角色,提供了一个数据队列功能。对于离线计算,DataHub除了供了一个缓冲的队列作用。同时由于DataHub提供了各种与其他阿里云上下游产品的对接功能,所以DataHub又扮演了一个数据的分发枢纽工作; 据上传和下载通道,提供SQL及MapReduce等多种计算分析服务,同时还提供完善的安全解决方案; DataWorks:是基于MaxCompute计算引擎,从工作室、车间到工具集都齐备的一站式大数据工厂,它能帮助你快速完成数据集成、开发、治理、服务、质量、安全等全套数据研发工作; QuickBI & DataV:专为云上用户量身打造的新一代智能BI服务平台。 三、项目场景 数仓项目广泛应用于大数据领域,该项目技术可以高度适配电商、金融、医疗、在线教育、传媒、电信、交通等各领域; 四、项目特色 本课程结合国内多家企业实际项目经验。从集群规模的确定到框架版本选型以及服务器选型,手把手教你从零开始搭建基于阿里云服务器的大数据集群。采用阿里云ECS服务器作为数据平台,搭建高可用的、高可靠的Flume数据采集通道,运用阿里云DateHub构建中间缓冲队列并担任数据分发枢纽将数据推送至阿里自主研发的DataWorks对数据进行分层处理,采用MaxCompute作为处理海量数据的方案,将计算结果保存至MySQL并结合阿里的QuickBI工作做最终数据展示。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值