虚拟机中安装hadoop

虚拟机中安装Hadoop 

1.首先你已经安装好了VMware虚拟机,出错的看我这篇博客:

VMware16安装教程

2.配置Hadoop必须有Java环境,方便忘记操作,建议首先配置Java环境,上篇博客已经详细介绍过,未安装的看这篇:

虚拟机中配置Java环境

后面在介绍一次

3.虚拟机打开终端,使用NAT模式,更新yum源,并使用yum安装net-tools,命令:

 yum upgrade

 yum -y install net-tools

此过程可能需要等会时间,莫急!

4. 查看虚拟机ip、Mac地址【enter后面,复制下来,命令:

ifconfig

我这是修改后的 

84339c7a46dc426e934c70af1966f3c5.png

5.虚拟机中点击【编辑】-【虚拟网络编辑器】-【NAT模式】-【DHCP设置】,查看起始与结束ip,然后修改ens33网卡配置文件,命令:

vim /etc/sysconfig/network-scripts/ifcfg-ens33

修改为如下内容: 

BOOTPROTO中的dhcp修改为static

ONBOOT中的no修改为yes

子网掩码默认设置为255.255.255.0

网关的值为将ip地址中最后一段的值改为2

DNS使用免费dns1:8.8.8.8】

TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"  #修改
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="612e2009-653a-4506-8bfa-33926ff1b08a"
DEVICE="ens33"
ONBOOT="yes"  #修改
#追加后面
HWADDR=" 00:0c:29:2a:28:b1"   #你的Mac
IPADDR="192.168.138.130"
GATEWAY="192.168.138.2"
NETMASK="255.255.255.0"
DNS1="8.8.8.8"

注意:HWADDR是刚才让你复制的自己裸机Mac地址,这个必须写对, IPADDR必须是在你的DHCP设置中的ip起始到结束的范围内,而且要注意,尽量不要与别人的一样,不然后面不成功!!!

6.重启网络服务,查看是否配置成功,并进行ping百度测试是否成功,命令:

systemctl restart network

ping www.baidu.com

下图即为成功 

1526d8ca53f44b218d84b59c8307d515.png

注意:如果重启网卡报错,看我这篇博客:

ping不通,重启网卡报错

7.重启虚拟机后,查看是否连通网络,命令:

reboot

ifconfig

ping www.baidu.com

我们发现,ens33中的ip已经变化, ping百度也会成功

440af509d6414a559fc299dd1edfaf12.png

 注意:这里必须要ping的通百度,说明网络已连接,如果出错ping不通百度,解决方案:

ping不通,重启网卡报错

8.关机虚拟机,进行克隆,右键虚拟机-管理-克隆

be82bc2a5af24990846674a9e250a757.png

从虚拟机的当前状态, 点击下一页,创建完整克隆

f893e3e2132246b0b693fb203dac38d0.png

命名并存放,建议一个文件夹并将原来的虚拟机改为hadoop01,重命名的为hadoop02和haoop03

 点击完成,完成后关闭e9689778db2a4510ba1d74ac03f0ec5d.png

9. 按步骤8再次进行克隆hadoop03,开启虚拟机hadoop02和hadoop03,分别修改主机名为hadoop02和hadoop03,命令:

#hadoop02虚拟机
hostnamectl set-hostname hadoop02

reboot                  

#hadoop03虚拟机
hostnamectl set-hostname hadoop03

reboot                  

10.修改hadoop02的网络配置文件,命令:

vim /etc/sysconfig/network-scripts/ifcfg-ens33

修改为:

TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="612e2009-653a-4506-8bfa-33926ff1b08a"
DEVICE="ens33"
ONBOOT="yes"
#追加
HWADDR="00:0c:29:60:12:8f"
IPADDR="192.168.138.131"
GATEWAY="192.168.137.2"
NETMASK="255.255.255.0"
DNS1="8.8.8.8"

注意:HWADDR是ens33后出现的Mac地址,IPADDR与前面的不要一样且在dhcp网段内,网关默认后面一位是2

可能你ifconfig后没有出现ens33,或者重启网卡报错

06816e391a53483894438320157c21c4.png看这篇:

Mac地址不符,重启网卡报错

同理,配置hadoop03,按照步骤10操作,注意修改HWADDR和IPADDR

11.三台虚拟机都要修改hosts配置文件,hadoop01、hadoop02、hadoop03依次进行,命令:

vi /etc/hosts

修改为:

d775dc8d644840688ecaf7f72af571a9.png

12. 设置ssh免密登录,在每台虚拟机上执行如下命令;

ssh-keygen 

258d7f150d774fd3a3c65921ecbbcb29.png

9a3b7a7baa4e47718f78b10e272f1628.png6aeae441296046e7bf8e0ca02dfe00fb.png

注意:需要输入一个“y”

此时密钥已经生成,在每台虚拟机上用以下命令复制到hadoop01上:

ssh-copy-id hadoop01

072d2c3b6f4f4d43bce2918d7f1efc5d.png

8c5af049f7ac46088b9dbd189f9d4365.png使用如下命令在hadoop01查看,可以看到密钥来源【建议移动一次查看一次】:

cat ~/.ssh/authorized_keys

83a22580d2704189b1de169e0b38a82b.png

在复制成功之后,我们使用以下命令分配秘钥给hadoop02,hadoop03

scp -r ~/.ssh/authorized_keys hadoop02:~/.ssh/
 
scp -r ~/.ssh/authorized_keys hadoop03:~/.ssh/

如图所示,我们先输入yes,接着会要我们输入其他主机的密码,如下图

f199c15450c04d83bc581bc459f60108.png

3051a1e869fc45b082520b3d65ef9309.png验证免密登录,命令如下:

ssh hadoop01  
 
ssh hadoop02
 
ssh hadoop03

b1e6d6366d8e42f4a20245a6d104afda.pnga68dc8d4220a4e4b920610573d2695c9.png

13.配置Hadoop集群,使用远程传输工具将hadoop、JDK安装包传输到/usr/local目录下,用鼠标拖

e8d7434f455a4b3da680a097d0698572.png

下面安装hadoop,将hadoop压缩包解压到opt目录下,命令:

cd /usr/local/hadoop-3.2.0

tar -zxvf hadoop-3.2.0.tar.gz -C /usr/local/hadoop-3.2.0

jdk解压方法一样,也在这个目录下进行

14.打开配置文件,命令:

vim /etc/profile

配置hadoop环境变量,在/etc/profile中追加如下内容:

注意:一定要是你自己的路径!!!

export JAVA_HOME=/usr/local/jdk1.8.0_351
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/usr/local/hadoop-3.2.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

如果你已经做完步骤2了,就不用在加java环境 

15.使配置文件生效 ,命令:

source /etc/profile

验证是否成功,输入:

hadoop version

java -version

出现下图即为成功b39b42a14c4748bdb85824789d95086a.png

16.创建相关文件,命令

cd /opt

mkdir hadoop

cd hadoop/

mkdir tmp

mkdir namenode

mkdir datanode

17.修改相关配置文件

修改hadoop-env.sh文件,在最后追加

vim hadoop-env.sh

#最后追加
export JAVA_HOME=/usr/local/jdk1.8.0_351

45593b3861f94ab9a786c1ccb2d98938.png

修改core-site.xml文件

注意:路径路径!!!看好了,别出错

vim core-site.xml
<configuration>
    <!--用于设置Hadoop的文件系统,由URI指定-->
    <property>
        <name>fs.defaultFS</name>
        <!--用于指定namenode地址在hadoop01机器上-->
        <value>hdfs://hadoop01:9000</value>
    </property>
    <!--配置Hadoop的临时目录,默认/tem/hadoop-${user.name}-->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop-3.2.0/tmp</value>
    </property>
</configuration>

dc314d7e050445479c9be66fd62621b8.png

 修改hdfs-site.xml文件,最后追加

vim hdfs-site.xml
<!-- 指定HDFS副本的数量 -->
<property>
	<name>dfs.replication</name>
	<value>1</value>
</property>

<property>
  <name>dfs.namenode.name.dir</name>
  <value>/opt/hadoop/namenode</value>
  <description>指定namenode文件夹位置位置 </description>
</property>

<property>
  <name>dfs.datanode.data.dir</name>
  <value>/opt/hadoop/datanode</value>
  <description>datanode文件夹位置位置</description>
</property>

b826138fb7cd4dc7aea1217d09bd39c7.png

修改mapred-site.xml文件,最后追加

vim mapred-site.xml
<property>
        <name>maperduce.framework.name</name>
        <value>yarn</value>
</property>

f0713c3eb2a24da8988b35c4120dd2b2.png

修改yarn-site.xml文件,最后追加

vi yarn-site.xml
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>

e4b1da89d8984799b1cacb2400bf506c.png

18. 初始化 hadoop,命令:

hdfs namenode -format

如图,出现 successfully 说明初始化 hadoop 成功 

a85f169a343149bcbd5c9f777c38d75a.png

输入jps查看进程,如下图

6653870ff26046e1bea87c7ffd7f71a0.png

 19.启动 hadoop,输入命令:

start-dfs.sh

69138d0f02f849d4bddafe04d6533c94.png

 输入jps查看进程

75f6971825af430ba0e75700d96daebc.png

再输入下面命令: 

start-yarn.sh

d2f27fb124df4be39bdc5439ee4091ed.png

 输入jps查看进程 ,看到下图最终结果为成功!!

95a245811b5b4c3ba9f7ba7047e84c94.png

此时,hadoop01配置完成。

 

hadoop02、hadoop03步骤一样,按步骤来!!

 

 

 

  • 23
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

噗-噗

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值