flume 写入hdfs 采用lzo 格式 教程

问题环境: hadoop2.7.3  和 flume 1.7.0

1.首先我的flume是单独部署在一台主机的。没该主机没有部署hadoop

所以sink写入hdfs的时候 直接报错。于是我上传了hadoop2.x.x 版本 配置了下hadoop_home path 环境变量。搞定。

2.在编写flume 写入hdfs的时候得知公司hdfs用的是lzo的文件格式储存

我直接用原生的flume 在编写属性

a1.sinks.s1.hdfs.fileType = CompressedStream
a1.sinks.s1.hdfs.codeC = lzo

的时候  启动flume报错

error during configuration
java.lang.IllegalArgumentException: Unsupported compression codec Lzop.  Please choose from: [None, BZip2Codec, DefaultCodec, DeflateCodec, GzipCodec, Lz4Codec, SnappyCodec]
at org.apache.flume.sink.hdfs.HDFSEventSink.getCodec(HDFSEventSink.java:334)
at org.apache.flume.sink.hdfs.HDFSEventSink.configure(HDFSEventSink.java:237)
at org.apache.flume.conf.Configurables.configure(Configurables.java:41)
at org.

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值