hadoop间数据迁移

具体操作:使用distcp命令跨hdfs迁移数据(hadoop版本不一致时,distcp命令也不一样

使用详情参看官网:http://hadoop.apache.org/docs/r1.0.4/cn/distcp.html

             distcp有多中数据复制模式:hdfs,http,hftp

             (目标端hadoop需要赋予外来用户对文件夹写入的权限,hadoop fs -chmod 755 XXXX)

 

<1>.同版本hadoop下数据迁移使用hdfs模式:

 

             hadoop distcp  hdfs://192.168.132.12:9000/elasticsearch    hdfs://hadoop11:9000/elasticsearch1(保证写入权限)

 

             其中192.168.132.12是源集群的namenode地址, 9000是源集群的rpc端口(hdfs-site.xml中可查看,2.7.1默认是9000)。

             hadoop distcp  hdfs://192.168.132.11:9000/elasticsearch    hdfs://hadoop12:9000/elasticsearch1(保证写入权限)

 

<2>.不同版本hadoop下数据迁移:

 

             2.x -->2.x:    使用hftp模式

            

             hadoop distcp  hftp://192.168.132.12:50070/tool    hdfs://hadoop11:9000/tool (保证写入权限)

                    命令类似hdfs模式,目标集群的开头要用hftp, 而且端口要变为http端口(hdfs-site.xml中可查看,如果未配置,则需要配置,2.7.1默认是50070)

                    hftp是一个只读文件系统,所以distcp必须运行在目标端集群上。 源的格式是 hftp://<dfs.http.address>/<path> 

 

             2.x -->3.x:  3.x弃用hftp,支持hdfs传数据

              

             hadoop distcp  hdfs://192.168.132.12:9000/elasticsearch    hdfs://192.168.132.10:9000/elasticsearch(保证写入权限)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值