从两个HDFS集群之间拷贝数据命令

本文介绍如何使用Hadoop的distcp命令和hdfs get命令实现高效地跨HDFS集群数据复制,避免数据的二次拷贝。文章还分享了如何解决在高可用集群中因namenode状态导致的复制问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

从两个HDFS集群之间拷贝数据命令

1 distcp命令

命令如下:

hadoop distcp hdfs://a01:8020/lime/ hdfs://nameservice/

该命令在需要数据的集群上面进行执行,执行过程需要跑MR程序。

有的时候我在其他节点上需要数据,同时我需要的是把数据从hdfs上面下载下来,以前我的方式是通过 distcp拷贝其他集群的数据.。 然后去本地集群上通过hdfs 的get命令下载。然而这样做有一个弊端 相当于数据需要拷贝两遍,一遍为从一个集群拷贝到另一个集群,另一边为从本地集群get获取。

为了避免这种方式,我想了一下,集群之间namenode的连接是通过某一个端口完成的,那么在本地集群去连接另一个集群的端口会不会下载的就是另一个集群的数据呢?

于是我亲身测试了一下。答案是肯定的 所以有了方法二

get 命令跨集群复制到本地

这里我以随便一个局域网IP为例,它上面配置的namenode通信端口为8020

nohup hadoop/bin/hdfs dfs -get hdfs://192.168.0.1:8020/lime/test ./ &

该命令即可把192.168.0.1主机的/lime/test目录下内容拷贝到本地。

也去你会遇到一些错误,比如:

 Operation category READ is not supported in state standby. Visit https://s.apache.org/sbnn-error

那么你遇到就对了,因为我也遇到了。 原因是你拷贝数据的集群是高可用的,但是你去连接的时候却没有连接到active的namenode 。因此你可以去存储数据的集群上面查看哪一个namenode是可以active状态的。

查看namenode状态命令

[bigdata@f1 bigdata]$ hadoop/bin/hdfs haadmin -getServiceState namenode1
active
[bigdata@f1 bigdata]$ hadoop/bin/hdfs haadmin -getServiceState namenode2
standby

这时候你就需要把IP该为active状态的namenode的IP地址了,然后再尝试一下。你就可以成功了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

偷偷放晴的天空

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值