Kafka Confluent 简介

简介

基本模块

这里写图片描述

  • Apache Kafka
    消息分发组件,数据采集后先入Kafka。

  • Schema Registry
    Schema管理服务,消息出入kafka、入hdfs时,给数据做序列化/反序列化处理。

  • Kafka Connect
    提供kafka到其他存储的管道服务,此次焦点是从kafka到hdfs,并建立相关HIVE表。

  • Kafka Rest Proxy
    提供kafka的Rest API服务。

  • Kafka Clients
    提供Client编程所需SDK。

说明:以上服务除Apache kafka由Linkedin始创并开源,其他组件皆由Confluent公司开发并开源。上图解决方案由confluent提供。

基本逻辑步骤

  • 数据通过Kafka Rest/Kafka Client写入Kafka;
  • kafka Connect任务作为consumer从kafka订阅数据;
  • kafka Connect任务建立HIVE表和hdfs文件的映射关系;
  • kafka connect任务收到数据后,以指定格式,写入指定hdfs目录;

实操:

1. 启动服务

启动kafka 服务
  • 修改配置
/*
1.修改192.168.103.44、192.168.103.45、192.168.103.46三台服务器上配置
2.配置文件中broker.id值分别修改为0、1、2
*/

cd  /home/ubuntu/confluent-2.0.0
vi etc/kafka/server.properties
  • 命令行启动
cd  /home/ubuntu/confluent-2.0.0
nohup bin/kafka-server-start etc/kafka/server.properties &
  • 服务说明
    kafka服务无Leader概念,服务访问端口为9092

启动Schema Register服务
  • 命令行启动
//wonderwoman集群环境,只在woderwoman上启动了服务
cd  /home/ubuntu/confluent-2.0.0
nohup bin/schema-registry-start etc/schema-registry/schema-registry.properties &
  • 服务说明
    Schema Register服务端口为8081

启动Kafka Rest API服务
  • 修改配置

                
  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值