【Linux】文件互传scp/rsync/xsync分发脚本

集群文件同步方法
本文介绍在集群环境中如何通过scp、rsync及自定义脚本xsync实现高效文件同步。scp适用于安全拷贝文件,rsync则更适用于快速同步,特别在处理大量文件时优势明显。xsync脚本实现了自动化文件分发。

一般性的文件使用MobaXterm软件直接拖拽即可,而服务器没有界面等问题可以采用命令的方式传输
本文的内容是在集群中比较常用,由其是集群同步

\1. scp(secure copy)安全拷贝

scp,linux命令,可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)

语法:把本服务器的文件传到其他服务器中

scp   -r  源文件  目标文件   

scp -r $pdir/$fname   $user@hadoop$host:$pdir/$fname
scp -r /opt/module root@hadoop102:/opt/module

注意:
如果涉及到软连接ln,scp会进行拷贝真正的文件,而不是软连接。会很耗时且占用内存
解决软连接的问题是先打包文件再进行scp。
tar zcvf  test.tar.gz  test  # 打包test文件夹
tar zxvf test.tar.gz # 解压
# 为什么压缩包可以解决软连接的问题:
# 个人的想法是软连接建立时如果是按相对路径建立的ln -s test/1.txt 2,那么压缩解压后仍能保持相对路径
# 如果ln -s软连接时写的是绝对路径ln -s /home/ouc/test/1.txt 2,那么压缩拷贝到别处/etc后解压,点击解压后的2,打开的还是home下的 。 这个问题个人验证过了
# 所以说,我们用打包解决scp的软连接问题是可以的,因为github程序的软连接一般都是相对路径
少数情况下,如果ln软连接的是内核之类的或者是集群环境,可以考虑使用rsync -l
# 个人推测rsync拷贝完也是按照建立路径的规则查找的
  • r:代表递归
  • 源文件/目标文件:格式如下 用户@主机名:目录/文件
  • user要用对应目录的写权限

使用:

#(a)在hadoop101上,将hadoop101中/opt/module目录下的软件拷贝到hadoop102上。
[atguigu@hadoop101 /]$ scp -r /opt/module root@hadoop102:/opt/module

#(b)在hadoop103上,将hadoop101服务器上的/opt/module目录下的软件拷贝到hadoop103上。
[atguigu@hadoop103 opt]$sudo scp -r atguigu@hadoop101:/opt/module root@hadoop103:/opt/module

#(c)在hadoop103上操作将hadoop101中/opt/module目录下的软件拷贝到hadoop104上。
[atguigu@hadoop103 opt]$ scp -r atguigu@hadoop101:/opt/module root@hadoop104:/opt/module

注意:拷贝过来的/opt/module目录,别忘了在hadoop102、hadoop103、hadoop104上修改所有文件的,所有者和所有者组。sudo chown atguigu:atguigu -R /opt/module

#(d)将hadoop101中/etc/profile文件拷贝到hadoop102的/etc/profile上。
[atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop102:/etc/profile

#(e)将hadoop101中/etc/profile文件拷贝到hadoop103的/etc/profile上。
[atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop103:/etc/profile

#(f)将hadoop101中/etc/profile文件拷贝到hadoop104的/etc/profile上。
[atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop104:/etc/profile

注意:拷贝过来的配置文件别忘了source一下/etc/profile,。
\2. rsync 远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。

rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

语法:

rsync   -rvl    $pdir/$fname        $user@hadoop$host:$pdir/$fname

说明:
rsync -选项  源   目的
#把hadoop101机器上的/opt/software目录同步到hadoop102服务器的root用户下的/opt/目录
[atguigu@hadoop101 opt]$ rsync -rvl /opt/software/ root@hadoop102:/opt/software
  • 选项:r:递归。v:显示复制过程。l:拷贝符号链接
  • 路径格式与scp相同:目的用户@主机:目的路径/名称
\3. xsync集群分发脚本

(1)需求:循环复制文件到所有节点的相同目录下。

说明:在/home/atguigu/bin这个目录下

(3)脚本实现

#(a)在/home/atguigu目录下创建bin目录,这个目录下存放的脚本,atguigu用户可以在系统任何地方直接执行。并在bin目录下xsync创建文件,文件内容如下:
[atguigu@hadoop102 ~]$ mkdir bin
[atguigu@hadoop102 ~]$ cd bin/
[atguigu@hadoop102 bin]$ touch xsync
[atguigu@hadoop102 bin]$ vi xsync

#!/bin/bash

# \`代表执行命令;$#代表取参数个数 $1代表取第一个参数  $p代表取变量内容
echo ======args==================
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==0)); then
  echo no args;
  exit;
fi
#2 获取文件名称
p1=$1
fname=`basename $p1`
echo filename=$fname
#3 获取上级目录的绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir
#4 获取当前用户名称
user=`whoami`
echo ------start------------------------------
#5 循环
for((host=1; host<4; host++)); do
   echo --------------== hadoop$host ==------------------
   rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
   # 复制输入的文件名称 到 目标主机的同级目录下
done
echo ------over...----------------------------
#文件修改结束


#(b)修改脚本 xsync 具有执行权限
[atguigu@hadoop102 bin]$ chmod 777 xsync

#(c)调用脚本形式:xsync 文件名称
[atguigu@hadoop102 bin]$ xsync /home/atguigu/bin
# 作用:将/home/atguigu/bin

注意:如果将xsync放到/home/atguigu/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下。
<think>好的,我需要帮助用户查找关于xsync工具的信息及其在根bin目录下的使用方法。首先,我应该确认用户提到的xsync是什么工具,因为可能有多个同名工具。 根据用户提供的引用,特别是引用[3],里面提到了Hadoop集群的权限,包括HDFS文件夹的访问。xsync常见于Hadoop生态系统中,通常是一个用于同步文件到集群节点的脚本。用户可能是在Hadoop环境下使用xsync,将文件分发到各个节点。 接下来,我需要检查用户提供的引用内容是否有提到xsync。查看引用[1]到[4],发现并没有直接提到xsync。因此,我需要基于一般知识来回答。xsync通常是一个自定义的Shell脚本,利用rsyncscp来同步文件到多个节点。用户可能是在Hadoop集群管理中遇到这个问题。 用户询问的是root bin目录下的使用,需要注意权限问题。可能需要使用sudo或者在root用户下运行,但需谨慎处理权限,避免安全风险。此外,引用[2]中提到隐藏进程信息,可能涉及到系统安全,使用root权限操作时需注意。 需要确认xsync的典型用法,例如检查脚本是否存在,配置节点列表,使用rsync命令同步文件。同时,用户可能需要安装相关依赖,如ssh免密登录,以便无需密码即可同步到各个节点。 最后,生成相关问题,帮助用户深入理解xsync和相关工具的使用,以及权限管理和安全性问题。</think>### 关于 xsync 工具的信息及用法 #### 1. **xsync 工具的定义与作用** xsyncHadoop 生态中常用的一个自定义脚本工具,用于将本地文件或目录**批量同步到集群的多台节点**。其核心依赖 `rsync` 或 `scp` 命令,通过配置节点列表实现高效分发,常用于 Hadoop、Spark 等分布式环境的配置文件同步[^3]。 #### 2. **典型使用场景** - 将 Hadoop 的配置文件(如 `core-site.xml`、`hdfs-site.xml`)同步到所有节点 - 分发脚本或程序到集群的 `/usr/local/bin` 或自定义目录 - 确保多台服务器的特定目录内容一致 #### 3. **基本用法(以 root/bin 目录为例)** 假设 xsync 脚本已放置在 `/root/bin` 目录(需确保该目录在 `$PATH` 环境变量中): ```bash # 同步单个文件到集群所有节点 $ xsync /path/to/local-file # 同步整个目录到集群所有节点 $ xsync /path/to/local-directory # 指定自定义节点列表(若脚本支持) $ xsync -h node1,node2,node3 /path/to/file ``` #### 4. **脚本实现示例** 若系统未内置 xsync,可通过以下 Shell 脚本创建(需保存为 `xsync` 并赋予执行权限): ```bash #!/bin/bash if [ $# -lt 1 ]; then echo "Usage: xsync <file/dir>" exit 1 fi # 集群节点列表(需根据实际修改) NODES=("node1" "node2" "node3") # 使用 rsync 同步 for node in ${NODES[@]}; do rsync -av $1 $node:$1 done ``` #### 5. **权限与路径注意事项** - **root 权限操作**:若同步到 `/usr/local/bin` 等系统目录,需使用 `sudo xsync` 或直接以 root 用户执行[^2] - **安全性**:确保集群节点间已配置 SSH 免密登录,避免频繁输入密码 - **路径一致性**:目标节点需存在与源路径相同的父目录结构,否则同步可能失败 #### 6. **相关工具与替代方案** - `rsync`:手动单节点同步 - `pdsh`:并行分布式 Shell 工具 - Ansible:通过 `ansible all -m copy` 实现更复杂的同步逻辑 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值