Hadoop环境配置之虚拟机克隆

@配置步骤:

克隆虚拟机

安装jdk和hadoop

使用SCP指令安全拷贝

一、克隆虚拟机
1)之前我已经将虚拟机的IP地址等配置完毕,也将jdk 卸载掉(我装的是桌面版本),现要利用模板虚拟机hadoop100,克隆三台虚拟机:hadoop102、hadoop103、hadoop104。
注意:克隆时,要先关闭hadoop100
2)克隆步骤:
鼠标右击模板机,点击管理->克隆
在这里插入图片描述
在这里插入图片描述
点击下一页
在这里插入图片描述
下一页

这里要选择“创建完整克隆”,而链接克隆相当于模板机的快捷方式

在这里插入图片描述
在这里插入图片描述
3)到这里克隆机已经克隆完毕,可以打开这台克隆的虚拟机,修改克隆机的静态IP地址与主机名称。与之前模板机配置过程一样,输入:

[root@hadoop100 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

进入网卡配置文件后,只需要修改IPADDR,将下图框选的100换成102
在这里插入图片描述
4)接下来,修改主机名称:[root@hadoop100 ~]# vim /etc/hostname hadoop102
5)输入reboot 指令,重启克隆机hadoop102
6) 修改windos 的主机映射文件(hosts文件)
(a)进入 C:\Windows\System32\drivers\etc 路径
(b)拷贝 hosts 文件到桌面
(c)打开桌面 hosts 文件并添加如下内容
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108
(d)将桌面 hosts 文件覆盖 C:\Windows\System32\drivers\etc 路径 hosts 文件

二、安装JDK和Hadoop
1)安装JDK
安装jdk之前一定确保提前删除了虚拟机自带的jdk
使用Xshell传输工具将JDK和hadoop 导入到opt 目录下的softeware文件夹下面
在这里插入图片描述
3)在linux系统下的opt目录中查看软件包是否导入成功

[atguigu@hadoop102 ~]$ ls /opt/software/
结果如下:
jdk-8u212-linux-x64.tar.gz

4)解压jdk到/opt/module目录下

[atguigu@hadoop102 software]$ tar -zxvf jdk-8u212-linuxx64.tar.gz -C /opt/module/

5)解压成功,配置jdk环境变量
新建/etc/profile.d/my_env.sh 文件

[atguigu@hadoop102 ~]$ sudo vim /etc/profile.d/my_env.sh
添加以下内容:
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin

保存后退出::wq
6)source 一下/etc/profile 文件,让新的环境变量 PATH 生效

[atguigu@hadoop102 ~]$ source /etc/profile

测试是否安装成功:

[atguigu@hadoop102 ~]$ java -version
如果能看到以下结果,则代表 Java 安装成功。
java version "1.8.0_212"

如果没有显示安装成功就重启一下

2、安装Hadoop
1)上步中配置jdk 的时候,我们已将hadoop文件上传到linux 系统中
2)进入到Hadoop安装包路径下,江解压安装文件到/opt/module下面

[atguigu@hadoop102 ~]$ cd /opt/software/
[atguigu@hadoop102 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C 
/opt/module/

3)查看是否解压成功

[atguigu@hadoop102 software]$ ls /opt/module/
hadoop-3.1.3

4)将Hadoop添加到环境变量
获取hadoop安装路径

[atguigu@hadoop102 hadoop-3.1.3]$ pwd
/opt/module/hadoop-3.1.3

打开/etc/profiile.d/my_env.sh文件
[atguigu@hadoop102 hadoop-3.1.3]$ sudo vim
/etc/profile.d/my_env.sh
在my_env.sh文件末尾添加如下内容
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

保存退出

让修改侯的文件生效

[atguigu@hadoop102 hadoop-3.1.3]$ source /etc/profile

并测试是否安装成功
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop version
Hadoop 3.1.3

三、使用SCP指令安全拷贝
scp: 可以实现服务器与服务器之间的数据拷贝。
语法:
scp -r p d i r / pdir/ pdir/fname u s e r @ h o s t : user@host: user@host:pdir/$fname
命令 递归 要拷贝的文件路径/名称 目的地用户@主机:目的地路径/名称

前面两步中,我们已经在hadoop102 中讲对应的jdk、hadoop 安装完毕,现在需要将它们拷贝到hadoop103、hadoop104上。在操作之前,需要在确保三台虚拟机都已经创建好/opt/moudle和、opt/software这两个目录,并且已经把这两个目录修改为atguigu:atguigu

[atguigu@hadoop102 ~]$ sudo chown atguigu:atguigu -R 
/opt/module

在 hadoop102 上,将 hadoop102 中/opt/module/jdk1.8.0_212 目录拷贝到
hadoop103 上。

[atguigu@hadoop102 ~]$ scp -r /opt/module/jdk1.8.0_212 
atguigu@hadoop103:/opt/module

在 hadoop103 上,将 hadoop102 中/opt/module/hadoop-3.1.3 目录拷贝到
hadoop103 上。

[atguigu@hadoop103 ~]$ scp -r 
atguigu@hadoop102:/opt/module/hadoop-3.1.3 /opt/module/

在 hadoop103 上操作,将 hadoop102 中/opt/module 目录下所有目录拷贝到
hadoop104 上。

[atguigu@hadoop103 opt]$ scp -r 
atguigu@hadoop102:/opt/module/*
atguigu@hadoop104:/opt/module
  • 8
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,以下是虚拟机中配置Hadoop环境的步骤: 1.安装Java JDK 首先,需要在虚拟机中安装Java JDK。可以通过在终端中运行以下命令来检查Java是否已经安装: ``` java -version ``` 如果输出的结果显示Java未安装,则需要安装Java JDK。可以通过以下命令在Ubuntu中安装Java JDK: ``` sudo apt-get update sudo apt-get install default-jdk ``` 2.下载和安装Hadoop 可以从Hadoop的官方网站上下载Hadoop的最新版本。下载后,解压缩文件并将其移动到适当的目录中。可以使用以下命令Hadoop解压缩并移动到/opt目录中: ``` sudo tar -zxvf hadoop-X.X.X.tar.gz -C /opt/ sudo mv /opt/hadoop-X.X.X /opt/hadoop ``` 3.配置Hadoop 接下来,需要配置Hadoop。打开Hadoop配置文件core-site.xml,将以下内容添加到其中: ``` <configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 接下来,打开Hadoop配置文件hdfs-site.xml,将以下内容添加到其中: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>/opt/hadoop/hdfs/name</value> </property> <property> <name>dfs.data.dir</name> <value>/opt/hadoop/hdfs/data</value> </property> </configuration> ``` 4.启动Hadoop 现在,Hadoop已经配置完成,可以启动它。使用以下命令启动Hadoop: ``` cd /opt/hadoop/sbin ./start-all.sh ``` 现在,Hadoop就已经在虚拟机中成功启动了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值