分发脚本

1.    scp(secure copy)安全拷贝

(1)scp定义:

              scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)

(2)基本语法

                  scp    -r          $pdir/$fname              $user@hadoop$host:$pdir/$fname

                  命令   递归       要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

(3)案例实操

(a)在hadoop101上,将hadoop101中/opt/module目录下的软件拷贝到hadoop102上。

           [atguigu@hadoop101 /]$ scp -r /opt/module  root@hadoop102:/opt/module

(b)在hadoop103上,将hadoop101服务器上的/opt/module目录下的软件拷贝到hadoop103上。

        [atguigu@hadoop103 opt]$sudo scp -r atguigu@hadoop101:/opt/module root@hadoop103:/opt/module

(c)在hadoop103上操作将hadoop101中/opt/module目录下的软件拷贝到hadoop104上。

           [atguigu@hadoop103 opt]$ scp -r atguigu@hadoop101:/opt/module root@hadoop104:/opt/module

注意:拷贝过来的/opt/module目录,别忘了在hadoop102hadoop103hadoop104上修改所有文件的,所有者和所有者组。sudo chown atguigu:atguigu -R /opt/module

(d)将hadoop101中/etc/profile文件拷贝到hadoop102的/etc/profile上。

          [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop102:/etc/profile

(e)将hadoop101中/etc/profile文件拷贝到hadoop103的/etc/profile上。

          [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop103:/etc/profile

(f)将hadoop101中/etc/profile文件拷贝到hadoop104的/etc/profile上。

           [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop104:/etc/profile

注意:拷贝过来的配置文件别忘了source一下/etc/profile,。

2.    rsync 远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。

rsyncscp区别:rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

        (1)基本语法

             rsync    -av       $pdir/$fname              $user@hadoop$host:$pdir/$fname

             命令   选项参数   要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

          选项参数说明

选项

功能

-a

归档拷贝

-v

显示复制过程

(2)案例实操

                (a)把hadoop101机器上的/opt/software目录同步到hadoop102服务器的root用户下的/opt/目录

      [atguigu@hadoop101 opt]$ rsync -av /opt/software/ hadoop102:/opt/software

3.    xsync集群分发脚本

(1)需求:循环复制文件到所有节点的相同目录下

        (2)需求分析:

(a)rsync命令原始拷贝:

          rsync  -av     /opt/module                 root@hadoop103:/opt/

(b)期望脚本:

xsync要同步的文件名称

                c)说明:在/home/atguigu/bin这个目录下存放的脚本,atguigu用户可以在系统任何地方直接执行。

(3)脚本实现

(a)在/home/atguigu目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:

[atguigu@hadoop102 ~]$ mkdir bin

[atguigu@hadoop102 ~]$ cd bin/

[atguigu@hadoop102 bin]$ touch xsync

[atguigu@hadoop102 bin]$ vi xsync

在该文件中编写如下代码

#!/bin/bash

#1 获取输入参数个数,如果没有参数,直接退出

pcount=$#

if ((pcount==0)); then

echo no args;

exit;

fi

#2 获取文件名称

p1=$1

fname=`basename $p1`

echo fname=$fname



#3 获取上级目录到绝对路径

pdir=`cd -P $(dirname $p1); pwd`

echo pdir=$pdir



#4 获取当前用户名称

user=`whoami`



#5 循环

for((host=103; host<105; host++)); do

        echo ------------------- hadoop$host --------------

        rsync -av $pdir/$fname $user@hadoop$host:$pdir

done

(b)修改脚本 xsync 具有执行权限

[atguigu@hadoop102 bin]$ chmod 777 xsync

(c)调用脚本形式:xsync 文件名称

[atguigu@hadoop102 bin]$ xsync /home/atguigu/bin

注意:如果将xsync放到/home/atguigu/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下。

在Hadoop集群上,通常会使用分布式文件系统(HDFS)和计算框架(MapReduce)来处理大数据。对于在三台服务器之间分发脚本,首先你需要确保这三台服务器都已经安装了Hadoop环境,并配置好网络通信。 以下是基本步骤: 1. **复制脚本到集群**: 使用`scp`命令将脚本从一台管理机器复制到Hadoop集群的任意一台启动机(Master Node),例如: ``` scp your_script.sh user@master_ip:/path/to/hadoop/script/ ``` 确保`user`有权限执行该脚本。 2. **修改脚本以接受参数**: 如果脚本需要特定的参数,比如服务器名称列表,你可以通过读取环境变量、配置文件或命令行参数来获取这些信息。 3. **编写分发策略**: 创建一个 shell 脚本来遍历所有服务器,然后对每个服务器运行已复制的脚本。这通常涉及到循环或条件判断,示例如下: ```bash for server in slave1 slave2 slave3; do ssh user@$server "cd /path/to/hadoop/script && ./your_script.sh $server_param" done ``` 这里`slave1`, `slave2`, `slave3`代表你的三个工作节点(Worker Nodes),`$server_param`是传递给脚本的具体参数。 4. **监控与日志**: 执行过程中可能会生成日志,确保你配置了合适的日志路径和监控机制以便追踪脚本的执行情况。 5. **错误处理**: 添加适当的错误处理机制,如捕获`ssh`连接失败或脚本执行异常,以免影响整个任务。 **相关问题--:** 1. 如何验证脚本是否成功分发并执行? 2. 分布式环境中如何处理脚本执行的结果? 3. 是否需要在每台服务器上都设置Hadoop环境变量?如果需要,怎么设置?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值