克隆好了虚拟机之后我们继续!
大家切记得关机克隆不然浪费硬盘
我克隆了3台虚拟机 分别为hadoop102,hadoop103,hadoop104
然后以atguigu这个用户登录每台虚拟机
(强烈建议这些代码大家都手打几遍,这样有时候会出错,但是全复制过去的到时候什么都记不住)
1.修改ip地址
sudo vim /etc/sysconfig/network-scripts/ifcfg-ens33
只修改ipaddr 我修改为了IPADDR=192.168.21.102
- 改主机名sudo nmcli g hostname 主机
3.reboot 重新启动虚拟机
现在给大家介绍一个工具
xshell 5 这是一个可以在windows上打开虚拟机终端,这样在几个终端之间操作也方便很多,大家可以自行百度怎么使用这款软件。
现在用xshell5连接你将要用到的每台虚拟机
像这样就是都连接好了
4. 搞一个分发脚本
cd ~
vim xsync
=================================================================
#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if ((pcount==0)); then
echo no args;
exit;
fi
#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname
#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir
#4 获取当前用户名称
user=`whoami`
#5 循环
for((host=103; host<105; host++)); do
echo ------------------- hadoop$host --------------
rsync -av $pdir/$fname $user@hadoop$host:$pdir
done
==============================================================
chmod +x xsync
sudo cp xsync /bin
sudo xsync /bin/xsync
-
配置免密登陆
1. 生成密钥对 ssh-keygen -t rsa 三次回车 2. 发送公钥到本机 ssh-copy-id hadoop102 输入一次密码 3. 分别ssh登陆一下所有虚拟机 ssh hadoop103 exit ssh hadoop104 exit 4. 把/home/atguigu/.ssh 文件夹发送到集群所有服务器 xsync /home/atguigu/.ssh
6.接下来安装hadoop和jdk
1. 进入到software目录
cd /opt/software
2.shell5上使用指令ctrl+alt+F
然后点击否,这样就新打开了一个hadoop102的窗口
3.将下载好的hadoop和jdk的安装包拖进这个hadoop102窗口中(记住是新打
开的那个传输文件的窗口)
4. 把/home/atguigu/.ssh 文件夹发送到集群所有服务器
xsync /home/atguigu/.ssh
5.tar -zxf hadoop-3.3.0.tar.gz -C /opt/module
5. tar -zxf jdk-8u144-linux-x64.tar.gz -C /opt/module
6.将module包内的jdk和hadoop分发一下
xsync /opt/module
7. sudo vim /etc/profile
在文件末尾添加
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.3.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
``
7.测试每个机器上的hadoop和jdk是否安装成功
输入java
hadoop
只要出现一大串那就是安装好了。