druid.io 使用hdfs作为deep storage 出现scheme: hdfs错误

使用hdfs作为druid.io的deep storage,但是在提交任务时却出现了错误。

错误如下:

2016-03-25T01:57:15,917 INFO [task-runner-0] io.druid.storage.hdfs.HdfsDataSegmentPusher - Copying segment[wikipedia_2013-08-31T00:00:00.000Z_2013-09-01T00:00:00.000Z_2016-03-25T01:57:07.729Z] to HDFS at location[hdfs://tt1.masiah.test/tmp/druid/RemoteStorage/wikipedia/20130831T000000.000Z_20130901T000000.000Z/2016-03-25T01_57_07.729Z/0]
2016-03-25T01:57:15,919 WARN [task-runner-0] io.druid.indexing.common.index.YeOldePlumberSchool - Failed to merge and upload
java.io.IOException: No FileSystem for scheme: hdfs
 at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:2304) ~[?:?]
 at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2311) ~[?:?]
 at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:90) ~[?:?]
 at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2350) ~[?:?]
 at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2332) ~[?:?]
 at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:369) ~[?:?]
 at org.apache.hadoop.fs.Path.getFileSystem(Path.java:296) ~[?:?]
 at io.druid.storage.hdfs.HdfsDataSegmentPusher.push(HdfsDataSegmentPusher.java:83) ~[?:?]

该问题的主要原因是在启动index任务时,mddileManager节点(如果使用overlord的local模式,则不需要配置middleManager节点,会在overlord内部实现middleManager功能)启动时加载hdfs包出现了错误。

解决办法替换包。首先停止middleManager节点的运行。

查找到数据包在你的druid包中,rm -rf extensions-repo/org/apache/hadoop/hadoop-hdfs/*。删除这个目录下所有的文件,这样重新启动middleManager节点,该节点会重新获取包 extensions-repo/org/apache/hadoop/hadoop-hdfs2.3.0/hadoop-hdfs-2.3.0.jar,由于这个包的错误导致了问题的出现,所以这里重新下载该包。

 

重新运行后,问题没有了。

转载于:https://my.oschina.net/u/2460844/blog/649443

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值