hadoop 集群间数据迁移

 

将HDFS的路径hadoop.tmp.dir修改

 

<property>
	 <name>hadoop.tmp.dir</name>
	 <value>/home/tmp</value>
</property>

 

 

 

num=8
slave=lenovo
#for i in {1..10};do
for((i=1;i<=num;i++)); do
  host=$slave${i}
  echo "开始安装${host}..."
 
  echo "拷贝几个配置文件"
  #scp  /etc/hosts  root@${host}:/etc

  scp /usr/local/hadoop/conf/core-site.xml  hadoop@${host}:/usr/local/hadoop/conf
 
  scp 4.sh root@${host}:/tmp/4.sh
  ssh root@${host} sh /tmp/4.sh

  echo "安装${host}完毕"
  
done

 

echo "创建HDFS的目录"

mv  /home/hadoop/tmp /home

#很关键
ln -s /home/tmp /home/hadoop/tmp


echo "将hadoop相关目录权限下放给用户hadoop"
chown -R hadoop:hadoop /home/tmp
chown -R hadoop:hadoop /home/hadoop/tmp
#slave上的权限只能是755,而master上的权限要是777,这样才能保证hive可以正常写入元数据。
chmod -R 755 /home/tmp
rm -rf /usr/local/hadoop/logs/*

 

 

 

 

 

参考文档

hadoop 集群间数据迁移

hive:从derby数据库到mysql的迁移

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值