Hadoop数据迁移


一、需求说明

把A集群上的数据迁移到B集群上。
需要预先知道A集群主节点的ip地址,和B集群主节点的ip地址。


二、找需要迁移的数据

在这里插入图片描述
然后点击可以查看文件目录树,这里以进入 /user/hive/warehouse/transpass_std.db/s_phone_inter_trip/source=cm/start_city=440300/year=2019/month=03/day=12 文件夹为例
在这里插入图片描述
根据实际迁移需求,找到你所想要迁移的数据,然后查看另一台集群上是否已存在。不存在则记录要迁移数据的文件目录,已存在则不需要迁移。
在这里插入图片描述


三、迁移脚本

#!/bin/bash

hdfspath=$1
hadoop fs -mkdir -p $1
hadoop distcp -update -skipcrccheck hdfs://A节点IP:8020$1 hdfs://B节点IP:8020$1

代码说明
在这里插入图片描述

将脚本文件保存,这里保存的文件名为hdfs-cp.sh

在脚本文件目录下运行shell脚本,sh hdfs-cp.sh +传输文件路径,这里传输/user/hive/warehouse/transpass_std.db/s_phone_inter_trip/source=cm/start_city=440300/year=2019/month=03为例

[hdfs@bigdata-1 ~]$ sh hdfs-cp.sh /user/hive/warehouse/transpass_std.db/s_phone_inter_trip/source=cm/start_city=440300/year=2019/month=03

运行时间根据数据大小而定,出现job completed successfully 表示传输成功
在这里插入图片描述


五、注意事项

文件太大可能传输失败,这时需要分批传输,不要一次性传太大
官方数据迁移教程:http://hadoop.apache.org/docs/r1.0.4/cn/distcp.html

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值