scp命令
1、把数据从hadoop101拷贝到hadoop102上,
scp -r module root@hadoop102:/opt/module
2、在hadoop上把101的数据拉去过来
sudo scp -r hadoop@hadoop101:/opt/module ./(当前路径)
3、在103上从101拷到104
scp -r hadoop@hadoop101:/opt/module root@hadoop104:/opt/module
文件权限的更改
sudo chown hadoop:hadoop module/ -R
rsync命令
备份和镜像,rsync只对差异文件做更新,scp是把所有文件都复制过去
xsync命令-循环复制文件到所有节点的相同目录下-xsync集群分发脚本
(a)在/home/atguigu目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:
[atguigu@hadoop102 ~]$ mkdir bin
[atguigu@hadoop102 ~]$ cd bin/
[atguigu@hadoop102 bin]$ touch xsync
[atguigu@hadoop102 bin]$ vi xsync
在该文件中编写如下代码
#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi
#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname
#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir
#4 获取当前用户名称
user=`whoami`
#5 循环
for((host=103; host<105; host++)); do
echo ------------------- hadoop$host --------------
rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
done
(b)修改脚本 xsync 具有执行权限
[atguigu@hadoop102 bin]$ chmod 777 xsync
(c)调用脚本形式:xsync 文件名称
[atguigu@hadoop102 bin]$ xsync /home/atguigu/bin
注意:如果将xsync放到/home/atguigu/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下。