基于Centos7的集群分发脚本xsync

目录

0. 相关文章链接

1. scp(secure copy)安全拷贝

2. rsync远程同步工具

2.1. 基本语法

2.2. 实例操作

3. xsync集群分发脚本


0. 相关文章链接

大数据基础知识点 文章汇总

1. scp(secure copy)安全拷贝

1)scp定义:

scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)

2)基本语法:

        scp               -r                       $pdir/$fname                     $user@$host:$pdir/$fname
        命令           递归             要拷贝的文件路径/名称       目的地用户@主机:目的地路径/名称

3)案例实操前提:

        在bigdata1、bigdata2、bigdata3 都已经创建好的/opt/module、/opt/software两个目录,并且已经把这两个目录修改为 root:root (root组和root用户)

chown root:root -R /opt/module

4)案例实操一:在bigdata1上,将bigdata1中/opt/module/jdk1.8.0_212目录拷贝到bigdata2上

scp -r /opt/module/jdk1.8.0_212  root@bigdata2:/opt/module

5)案例实操二:在bigdata2上,将bigdata1中/opt/module/hadoop-3.1.3目录拷贝到bigdata1上

scp -r root@bigdata1:/opt/module/hadoop-3.1.3 /opt/module/

6)案例实操三:在bigdata2上操作,将bigdata1中/opt/module目录下所有目录拷贝到bigdata3上

scp -r root@bigdata1:/opt/module/* root@bigdata3:/opt/module

2. rsync远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。

rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

2.1. 基本语法

rsync            -av                          $pdir/$fname                             $user@$host:$pdir/$fname
命令           选项参数           要拷贝的文件路径/名称           目的地用户@主机:目的地路径/名称

选项参数说明:

选项

功能

-a

归档拷贝

-v

显示复制过程

2.2. 实例操作

1)删除bigdata2中/opt/module/hadoop-3.1.3/wcinput

rm -rf wcinput/

2)同步bigdata1中的/opt/module/hadoop-3.1.3到bigdata2

rsync -av hadoop-3.1.3/ root@bigdata2:/opt/module/hadoop-3.1.3/

3. xsync集群分发脚本

主要目的:循环复制文件到所有节点的相同目录下

1)rsync命令原始拷贝:

rsync -av /opt/module root@bigdata2:/opt/

2)期望脚本:xsync要同步的文件名称

3)期望脚本在任何路径都能使用(脚本放在声明了全局环境变量的路径)

echo $PATH
/usr/java/jdk1.8.0_181/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin:/root/bin

4)在/root/bin目录下创建xsync文件,并在该文件中编写如下代码

vim xsync
#!/bin/bash

#1. 判断参数个数
if [ $# -lt 1 ]
then
    echo Not Enough Arguement!
    exit;
fi

#2. 遍历集群所有机器
for host in bigdata1 bigdata2 bigdata3
do
    echo ====================  $host  ====================
    #3. 遍历所有目录,挨个发送

    for file in $@
    do
        #4. 判断文件是否存在
        if [ -e $file ]
            then
                #5. 获取父目录
                pdir=$(cd -P $(dirname $file); pwd)

                #6. 获取当前文件的名称
                fname=$(basename $file)
                ssh $host "mkdir -p $pdir"
                rsync -av $pdir/$fname $host:$pdir
            else
                echo $file does not exists!
        fi
    done
done

5)修改脚本 xsync 具有执行权限

chmod +x xsync

6)测试脚本

注意:在测试之前需要在所有机器上安装 rsync 服务,安装命令如下

yum -y install rsync

# 如果还是不能使用,需要启动rsync服务
systemctl start rsyncd.service
systemctl enable rsyncd.service

# 检查是否已经成功启动
netstat -lnp|grep 873

注意:在测试之前要配置源机器到目标机器的免密登录,可以参考博主另一篇博客:基于Centos7的SSH无密登录配置 

7)如有必要,可以将脚本复制到/bin中,以便全局调用(/root/bin下其实也可以全局调用)

cp xsync /bin/

注:其他相关文章链接由此进 -> 大数据基础知识点 文章汇总


  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是一个简单的脚本,可以快速在 CentOS 7 上搭建 Hadoop 集群: ```bash #!/bin/bash # Hadoop Cluster Setup Script # Set hostname echo "Setting hostname..." hostnamectl set-hostname hadoop-master echo "127.0.0.1 hadoop-master" >> /etc/hosts # Install Java echo "Installing Java..." yum install -y java-1.8.0-openjdk-devel # Download Hadoop echo "Downloading Hadoop..." curl -O https://apache.org/dist/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz # Extract Hadoop echo "Extracting Hadoop..." tar -xzvf hadoop-3.3.1.tar.gz mv hadoop-3.3.1 /usr/local/hadoop rm hadoop-3.3.1.tar.gz # Configure Hadoop echo "Configuring Hadoop..." echo "export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk" >> /usr/local/hadoop/etc/hadoop/hadoop-env.sh echo "export HADOOP_HOME=/usr/local/hadoop" >> /etc/profile echo "export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin" >> /etc/profile source /etc/profile # Configure Hadoop Cluster echo "Configuring Hadoop Cluster..." cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml sed -i 's/localhost/hadoop-master/' /usr/local/hadoop/etc/hadoop/core-site.xml sed -i 's/localhost/hadoop-master/' /usr/local/hadoop/etc/hadoop/hdfs-site.xml sed -i 's/localhost/hadoop-master/' /usr/local/hadoop/etc/hadoop/yarn-site.xml echo "export HDFS_NAMENODE_USER=root" >> /usr/local/hadoop/etc/hadoop/hadoop-env.sh echo "export HDFS_DATANODE_USER=root" >> /usr/local/hadoop/etc/hadoop/hadoop-env.sh echo "export HDFS_SECONDARYNAMENODE_USER=root" >> /usr/local/hadoop/etc/hadoop/hadoop-env.sh echo "export YARN_RESOURCEMANAGER_USER=root" >> /usr/local/hadoop/etc/hadoop/yarn-env.sh echo "export YARN_NODEMANAGER_USER=root" >> /usr/local/hadoop/etc/hadoop/yarn-env.sh # Start Hadoop Cluster echo "Starting Hadoop Cluster..." /usr/local/hadoop/sbin/start-dfs.sh /usr/local/hadoop/sbin/start-yarn.sh # Configure Hadoop Cluster on other nodes echo "Configure Hadoop Cluster on other nodes..." echo "hadoop-slave1" >> /etc/hosts echo "hadoop-slave2" >> /etc/hosts # Done echo "Hadoop Cluster Setup Complete!" ``` 这个脚本包括了以下步骤: 1. 设置主机名和 hosts 文件。 2. 安装 Java。 3. 下载和解压 Hadoop。 4. 配置 Hadoop。 5. 配置 Hadoop 集群。 6. 启动 Hadoop 集群。 7. 在其他节点上配置 Hadoop 集群。 可以将这个脚本保存为 `setup-hadoop.sh`,并在每个节点上运行它。注意,在运行脚本之前,需要将每个节点的 hostname 和 IP 地址添加到 `/etc/hosts` 文件中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

电光闪烁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值