Linkedin Camus,从Kafka到HDFS的数据传输管道

LinkedIn的Camus是一个开源工具,用于将数据从Kafka高效地迁移到HDFS。它利用MapReduce作业,通过Avro进行数据序列化。Camus的工作流程包括设置、Hadoop阶段(数据拉取和提交)及清理阶段。要使用Camus,需要进行安装、创建自定义Kafka消息解码器和配置,然后作为Hadoop作业运行。
摘要由CSDN通过智能技术生成

Preface

本文是对Linkedin-Camus的介绍。内容都是从Camus的github中摘取出来的,详细的内容要看其说明和源码

Introduction of Camus

Camus是Linkedin开源的一个从Kafka到HDFS的数据管道,实际上它是一个MapReduce作业

What is Avro

Apache Avro是一个 Data Serialization System,数据序列化系统。 
Camus使用了Avro Schema

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值