前面,已经搭建好了三台服务器,并实现了单机器启动,现在,将要实现集群启动,并使用xsync.sh煎熬本实现集群之间的配置分发,集群群起,这样就只需在一台机器上操作,就可以配置集群了。直接开干:
1.配置集群分发脚本
- scp(secure copy)安全拷贝
scp -r $pdir/$fname $user@hadoop$host:$pdir/$fname
命令 递归 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
将hadoop101中/etc/profile文件拷贝到hadoop102的/etc/profile上。
[root@hadoop101 ~]$ sudo scp /etc/profile root@hadoop102:/etc/profile
- rsync 远程同步工具
rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。
基本语法
rsync -rvl $pdir/$fname $user@hadoop$host:$pdir/$fname
命令 选项参数 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
把hadoop101机器上的/opt/software目录同步到hadoop102服务器的root用户下的/opt/目录
[root@hadoop101 opt]$ rsync -rvl /opt/software/ root@hadoop102:/opt/software
- xsync集群分发脚本
需求:循环复制文件到所有节点的相同目录下
需求分析:
rsync命令原始拷贝:
rsync -rvl /opt/module root@hadoop103:/opt/
期望脚本:
xsync要同步的文件名称
在root/bin 目录下新建xsync.sh文件
具体脚本如下:
#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi
#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname
#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir
#4 获取当前用户名称
user=`whoami`
#5 循环
for((host=102; host<105; host++)); do
echo ------------------- hadoop$host --------------
rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
done
修改脚本 xsync 具有执行权限
[root@hadoop102 bin]$ chmod 777 xsync.sh
2.集群部署规划
hadoop102 | hadoop103 | hadoop104 | |
---|---|---|---|
HDFS | NameNode、DataNode | DataNode | SecondaryNameNode、 DataNode |
YARN | NodeManager | ResourceManager、NodeManager | NodeManager |
2.1 核心配置文件配置:
(1)核心配置文件
配置core-site.xml
[root@hadoop102 hadoop]$ vi core-site.xml
在该文件中编写如下配置
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
(2)HDFS配置文件
配置hadoop-env.sh
[root@hadoop102 hadoop]$ vi hadoop-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置hdfs-site.xml
[root@hadoop102 hadoop]$ vi hdfs-site.xml
在该文件中编写如下配置
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop104:50090</value>
</property>
(3)YARN配置文件
配置yarn-env.sh
[root@hadoop102 hadoop]$ vi yarn-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置yarn-site.xml
[root@hadoop102 hadoop]$ vi yarn-site.xml
在该文件中增加如下配置
<!-- Reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
(4)MapReduce配置文件
配置mapred-env.sh
[root@hadoop102 hadoop]$ vi mapred-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置mapred-site.xml
[root@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml
[root@hadoop102 hadoop]$ vi mapred-site.xml
在该文件中增加如下配置
<!-- 指定MR运行在Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
3.在集群上分发配置好的Hadoop配置文件
[root@hadoop102 hadoop]$ xsync /opt/module/hadoop-2.7.2/
4.查看文件分发情况
[root@hadoop103 hadoop]$ cat /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml
2.2 SSH无密登录配置
生成公钥和私钥:
[root@hadoop102 .ssh]$ ssh-keygen -t rsa
将公钥拷贝到要免密登录的目标机器上
[root@hadoop102 .ssh]$ ssh-copy-id hadoop102
[root@hadoop102 .ssh]$ ssh-copy-id hadoop103
[root@hadoop102 .ssh]$ ssh-copy-id hadoop104
注意:
还需要在hadoop102上采用root账号,配置一下无密登录到hadoop102、hadoop103、hadoop104;
还需要在hadoop103上采用root账号配置一下无密登录到hadoop102、hadoop103、hadoop104服务器上。
2.3 群起集群
- 配置slaves
[root@hadoop102 hadoop]$ vi slaves
在该文件中增加如下内容:
hadoop102
hadoop103
hadoop104
注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。
同步所有节点配置文件
[root@hadoop102 hadoop]$ xsync slaves
- 启动集群
(1)如果集群是第一次启动,需要格式化NameNode(注意格式化之前,一定要先停止上次启动的所有namenode和datanode进程,然后再删除data和log数据)
[root@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -format
(2)启动HDFS
[root@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
(3)启动YARN
[root@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh
注意:NameNode和ResourceManger如果不是同一台机器,不能在NameNode上启动 YARN,应该在ResouceManager所在的机器上启动YARN。
jps 查看各服务器情况:
[root@hadoop102 hadoop-2.7.2]# jps
6386 NameNode
6770 NodeManager
6511 DataNode
[root@hadoop103 hadoop-2.7.2]# jps
5008 NodeManager
4775 DataNode
4908 ResourceManager
[root@hadoop104 module]# jps
5282 NodeManager
5095 DataNode
5191 SecondaryNameNode
Web端查看SecondaryNameNode
上传文件测试:
[root@hadoop104 hadoop-2.7.2]# hdfs dfs -mkdir -p /user/root/input
[root@hadoop104 hadoop-2.7.2]# hdfs dfs -put wcinput/wc.input /user/root/input
[root@hadoop104 hadoop-2.7.2]# bin/hadoop fs -put /opt/software/hadoop-2.7.2.tar.gz /user/root/input
[root@hadoop104 hadoop-2.7.2]#
查看文件存放位置:
[root@hadoop102 hadoop-2.7.2]# ll
总用量 32
drwxr-xr-x. 2 10011 10011 194 1月 4 17:32 bin
drwxr-xr-x. 3 root root 17 3月 10 15:03 data
drwxr-xr-x. 3 10011 10011 20 1月 26 2016 etc
drwxr-xr-x. 2 10011 10011 106 1月 4 17:32 include
drwxr-xr-x. 2 root root 187 1月 4 17:32 input
drwxr-xr-x. 3 10011 10011 20 1月 26 2016 lib
drwxr-xr-x. 2 10011 10011 239 1月 4 17:32 libexec
-rw-r--r--. 1 root root 15429 1月 4 17:32 LICENSE.txt
drwxr-xr-x. 3 root root 4096 3月 10 15:17 logs
-rw-r--r--. 1 root root 101 1月 4 17:32 NOTICE.txt
drwxr-xr-x. 2 root root 88 1月 4 17:32 output
-rw-r--r--. 1 root root 1366 1月 4 17:32 README.txt
drwxr-xr-x. 2 10011 10011 4096 1月 4 17:32 sbin
drwxr-xr-x. 4 10011 10011 31 1月 26 2016 share
drwxr-xr-x. 2 root root 22 1月 4 17:32 wcinput
drwxr-xr-x. 2 root root 88 1月 4 17:32 wcoutput
[root@hadoop102 hadoop-2.7.2]# cd data
......
......
[root@hadoop102 subdir0]# cd subdir0/
[root@hadoop102 subdir0]# ll
总用量 208712
-rw-r--r--. 1 root root 45 3月 10 15:28 blk_1073741825
-rw-r--r--. 1 root root 11 3月 10 15:28 blk_1073741825_1001.meta
-rw-r--r--. 1 root root 134217728 3月 10 15:29 blk_1073741826
-rw-r--r--. 1 root root 1048583 3月 10 15:29 blk_1073741826_1002.meta
-rw-r--r--. 1 root root 77829046 3月 10 15:29 blk_1073741827
-rw-r--r--. 1 root root 608047 3月 10 15:29 blk_1073741827_1003.meta
[root@hadoop102 subdir0]# pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-1958721629-192.168.18.102-1615360361097/current/finalized/subdir0/subdir0
集群整体停止:
各个模块分开启动/停止(配置ssh是前提)常用
(1)整体启动/停止HDFS
start-dfs.sh / stop-dfs.sh
(2)整体启动/停止YARN
start-yarn.sh / stop-yarn.sh