四、Hadoop 运行模式--编写集群分发脚本xsync

一、hadoop100模板机配置

二、hadoop集群搭建,克隆虚拟机

三、JDK、Hadoop安装(hadoop102)

四、Hadoop 运行模式--编写集群分发脚本xsync

五、集群配置、集群启动、常用脚本

六、历史服务器配置、日志配置、集群同步


目录

 1、Hadoop 运行模式

2、完全分布式运行模式(开发重点)

3、编写集群分发脚本xsync

  3.1 scp(secure copy)安全拷贝

3.2 rsync 远程同步工具

3.3 xsync 集群分发脚本


 1、Hadoop 运行模式

Hadoop 官方网站:http://hadoop.apache.org/ 
Hadoop 运行模式包括: 本地模式 伪分布式模式 以及 完全分布式模式
本地模式 :单机运行,只是用来演示一下官方案例。 生产环境不用。
伪分布式模式: 也是单机运行,但是具备 Hadoop 集群的所有功能,一台服务器模
拟一个分布式的环境。 个别缺钱的公司用来测试,生产环境不用。
完全分布式模式: 多台服务器组成分布式环境。 生产环境使用。

2、完全分布式运行模式(开发重点)

分析:
1 )准备 3 台客户机( 关闭防火墙、静态 IP 、主机名称
2 )安装 JDK
3 )配置环境变量
4 )安装 Hadoop
5 )配置环境变量
6 )配置集群
7 )单点启动
8 )配置 ssh
9 )群起并测试集群

3、编写集群分发脚本xsync

  3.1 scp(secure copy)安全拷贝
   (1) scp 定义
          scp 可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)
    (2)基本语法
        scp                -r                 $pdir/$fname                         $user@$host:$pdir/$fname
        命令             递归             ​​​​​ 要拷贝的文件路径/名称          目的地用户@ 主机 : 目的地路径 / 名称
      (3) 案例实操
前提:在 hadoop102 hadoop103 hadoop104 都已经创建好的 /opt/module
/opt/software 两个目录,并且已经把这两个目录修改为 xjx:xjx
 sudo chown xjx:xjx-R /opt/module

 hadoop100

hadoop102 

hadoop103

hadoop104 

(a)在 hadoop102 上,将 hadoop102 /opt/module/jdk1.8.0_212 目录拷贝到
hadoop103 上。
scp -r /opt/module/jdk1.8.0_212 xjx@hadoop103:/opt/module

 (b)在 hadoop103 上,将 hadoop102 /opt/module/hadoop-3.1.3 目录拷贝到

hadoop103 上。
scp -r xjx@hadoop102:/opt/module/hadoop-3.1.3 /opt/module/

  (c)在 hadoop103 上操作,将 hadoop102 /opt/module 目录下所有目录拷贝到

hadoop104 上。
scp -r xjx@hadoop102:/opt/module/* xjx@hadoop104:/opt/module

 

3.2 rsync 远程同步工具
         rsync 主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
        rsync 和 scp 区别:用 rsync 做文件的复制要比 scp 的速度快,rsync 只对差异文件做更
新。scp 是把所有文件都复制过去。
1 )基本语法
rsync         -av                 $pdir/$fname                                 $user@$host:$pdir/$fname
命令          选项参数          要拷贝的文件路径/名称          目的地用户@ 主机 : 目的地路径 / 名称
选项参数说明
                选项                                         功能         
                `-a                                         归档拷贝
                -v                                         显示复制过程
安装rsync
yum -y install rsync
(2)案例实操
  (a)删除 hadoop103 /opt/module/hadoop-3.1.3/wcinput
rm -rf wcinput/
(b)同步 hadoop102 中的 /opt/module/hadoop-3.1.3 hadoop103
rsync -av hadoop-3.1.3/ xjx@hadoop103:/opt/module/hadoop-3.1.3/

3.3 xsync 集群分发脚本
  (1)需求:循环复制文件到所有节点的相同目录下
(2)需求分析:
 (a)rsync 命令原始拷贝: 
rsync -av /opt/module xjx@hadoop103:/opt/
(b)期望脚本:
        xsync 要同步的文件名称
(c)期望脚本在任何路径都能使用(脚本放在声明了全局环境变量的路径)
# 查看 全局环境变量的路径
echo $PATH

注:没有/home/xjx/bin路径 

添加路径代码
vim /home/xjx/.bashrc



export PATH=/home/xjx/bin:$PATH

(3)脚本实现

 (a)在 /home/xjx/bin 目录下创建 xsync 文件
cd /home/xjx

mkdir bin

vim xsync
    在该文件中编写如下代码
#!/bin/bash
#1. 判断参数个数
if [ $# -lt 1 ]
then
 echo Not Enough Arguement!
 exit;
fi

#2. 遍历集群所有机器
for host in hadoop102 hadoop103 hadoop104
do
 echo ==================== $host ====================
 #3. 遍历所有目录,挨个发送
 for file in $@
 do
 #4. 判断文件是否存在
 if [ -e $file ]
 then
 #5. 获取父目录
 pdir=$(cd -P $(dirname $file); pwd)
 #6. 获取当前文件的名称
 fname=$(basename $file)
 ssh $host "mkdir -p $pdir"
 rsync -av $pdir/$fname $host:$pdir
 else
 echo $file does not exists!
 fi
 done
done

(b)修改脚本 xsync 具有执行权限
chmod +x xsync

(c)测试脚本
xsync /home/xjx/bin

 (d)同步环境变量配置(root 所有者)

sudo ./bin/xsync /etc/profile.d/my_env.sh

 注意:如果用了 sudo,那么 xsync 一定要给它的路径补全。

 让环境变量生效(hadoop103,hadoop104)
source /etc/profile

4、SSH无密登录配置

4.1配置ssh

1 )基本语法
           ssh 另一台电脑的 IP 地址
(2) ssh 连接时出现 Host key verification failed 的解决方法
ssh hadoop103

# 退出
exit

4.2无密钥配置

1 )免密登录原理

 (2)生成公钥和私钥

# 查看所有隐藏文件
ls -al 

pwd

ssh-keygen -t rsa
然后敲(三个回车),就会生成两个文件 id_rsa (私钥)、 id_rsa.pub (公钥)
 

 (3)将公钥拷贝到要免密登录的目标机器上

ssh-copy-id hadoop102
ssh-copy-id hadoop103
ssh-copy-id hadoop104
注意:
        还需要在 hadoop103 上采用 xjx账号配置一下无密登录到 hadoop102、hadoop103、
hadoop104 服务器上。
        还需要在 hadoop104 上采用 xjx账号配置一下无密登录到 hadoop102、hadoop103、
hadoop104 服务器上。
        还需要在 hadoop102 上采用 root 账号,配置一下无密登录到 hadoop102、hadoop103、
hadoop104;

3 .ssh 文件夹下( ~/.ssh )的文件功能解释
known_hosts                                         记录 ssh 访问过计算机的公钥(public key)
id_rsa                                                     生成的私钥
id_rsa.pub                                              生成的公钥
authorized_keys                                     存放授权过的无密登录服务器公钥
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Hadoop集群搭建是一个庞大且复杂的过程,但通过CSDN上的相关教程和资源,可以使整个过程变得更加简单和容易。 首先,你需要从CSDN上搜索关于Hadoop集群搭建的教程,找到一篇适合你的文章。通常,这些教程会提供详细的步骤和说明,以及相应的代码和配置示例。 在开始之前,确保你已经安装好了Java和Hadoop,并且所有的节点都能够相互通信。 接下来,按照教程中的步骤进行以下操作: 1. 配置Hadoop集群的主节点和从节点。这涉及到在每个节点上配置hadoop-env.sh和core-site.xml文件,以便它们能够相互识别和通信。 2. 配置Hadoop分布式文件系统(HDFS)。根据教程中的指示,你需要在主节点上设置NameNode和SecondaryNameNode,并在从节点上设置DataNode。确保你正确配置了hdfs-site.xml文件,以指定数据存储和复制策略。 3. 配置Hadoop的计算框架(MapReduce)。在主节点上设置JobTracker,并在从节点上设置TaskTracker。确保你正确配置了mapred-site.xml文件,以指定任务分发和执行策略。 4. 启动Hadoop集群。按照教程中的说明启动每个节点,并通过命令行或网页界面验证集群的状态和可用性。 5. 运行Hadoop任务。通过编写和提交MapReduce程序,利用Hadoop集群来处理大规模数据。确保你在程序中正确指定输入和输出路径,并设置好Map和Reduce的逻辑。 除了以上步骤,你可能还需要考虑一些其他的配置和调优,例如配置网络和安全相关的参数,以及调整Hadoop集群的性能和资源管理。 总的来说,通过CSDN上的教程和资源,你可以从头开始搭建一个Hadoop集群并开始运行MapReduce程序。在这个过程中,请确保仔细阅读并遵循教程中的步骤和说明,同时根据需要进行适当的调整和优化。 ### 回答2: Hadoop是一个开源的分布式计算框架,用于处理大规模数据的存储和计算。要搭建Hadoop集群,首先需要准备好硬件设备和操作系统环境。 硬件方面,需要至少三台计算机作为Hadoop集群的节点,其中一台作为主节点(NameNode),其他节点作为工作节点(DataNode)。每台计算机需要具备一定的硬件配置和网络连接,以支持Hadoop集群的正常运行。 操作系统环境方面,Hadoop可以运行在Linux或Windows系统上,但建议使用Linux系统,如Ubuntu或CentOS。在每台计算机上安装并配置好相应的操作系统,确保网络能够互通。 接下来,需要下载和安装Hadoop软件包。可以从Hadoop官方网站或其他开源软件镜像站点下载相应的版本。解压缩软件包并设置相关环境变量,以便在每台计算机上使用Hadoop命令。 然后,需要对Hadoop集群的配置文件进行适当的修改。需要编辑hadoop-env.sh、core-site.xml、hdfs-site.xml和mapred-site.xml等配置文件,指定正确的节点信息和相关参数。 在配置文件修改完成后,需要启动Hadoop集群的各个组件。首先启动主节点的NameNode服务,然后启动工作节点的DataNode服务。接着启动其他组件,如ResourceManager和NodeManager等。 最后,可以通过Hadoop提供的命令和Web界面,来验证和管理Hadoop集群的状态和任务。可以使用hadoop fs、hadoop jar等命令来操作Hadoop分布式文件系统和运行MapReduce任务等。 总之,搭建Hadoop集群需要准备硬件设备、安装操作系统、下载配置Hadoop软件包、修改配置文件,启动集群服务,然后进行验证和管理。通过这些步骤,就可以成功地搭建一个Hadoop集群,用于处理大规模数据的计算任务。 ### 回答3: Hadoop是一个用于处理大规模数据集的开源分布式计算框架。CSDN是一个面向IT技术人员的社区平台。下面将介绍如何搭建Hadoop集群并将其应用于CSDN。 首先,搭建Hadoop集群需要准备一定数量的计算机作为节点,这些计算机可以是物理机也可以是虚拟机。每个节点都要安装操作系统,并保证网络连通。 接下来,需要在每个节点上安装Java环境,因为Hadoop是基于Java开发的。可以选择合适版本的Java进行安装。 然后,下载Hadoop的二进制包并解压缩到每个节点的指定文件夹中。配置Hadoop的核心文件,包括hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml等。 在主节点上配置启动和停止Hadoop集群脚本,并将其复制到所有其他节点上。通过执行启动脚本,可以启动Hadoop集群的各个组件,包括HDFS和YARN。 在搭建完Hadoop集群后,可以将其应用于CSDN。首先,将CSDN的相关数据上传到Hadoop集群的HDFS中,以便供后续的分析和处理使用。 然后,根据需求和数据特点,使用Hadoop的MapReduce或Spark等计算框架进行数据分析和挖掘,提取出有价值的信息。 最后,将分析结果存储到Hadoop集群中的HDFS或其他适当的存储介质中,以便随时查询和使用。 总的来说,搭建Hadoop集群可以为CSDN提供强大的数据处理和分析能力,帮助实现更精确的数据挖掘和决策支持,从而提升CSDN平台的价值和竞争力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值