Hadoop运行环境搭建

一、Linux环境准备

1.搭建模板虚拟机

(1)相关软件下载
虚拟机运行环境:VMware-workstation-full-16.2.2-19200509.exe
映像文件:CentOS-7-x86_64-DVD-2009.iso
远程登录工具:Xshell-7.0.0090.exe
Xftp传输工具:Xftp-7.0.0111p.exe
(2)模板虚拟机安装(略)
(3)查看当前网络信息

查看修改VMware网络信息
在这里插入图片描述
在这里插入图片描述
查看网关ip
在这里插入图片描述
在这里插入图片描述
如需更改网段,点击更改设置
在这里插入图片描述
输入命令:ifconfig,查看当前网络ip
在这里插入图片描述
测试当前服务器是否可以连接百度
在这里插入图片描述
(4)修改ip地址

  1. 查看ip配置文件
[root@hadoop100 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
  1. 修改ip配置信息
  • 将dhcp自动分配模式改为static
  • 添加ip地址,网络类型、网络范围和网络位(即ip地址前三部分)必须和虚拟网络编辑器中相同,主机位(最后一部分)自定义,这里用192.168.10.100。
  • 添加网关和域名解析器,和虚拟网络编辑器中相同。

在这里插入图片描述
3. 重启网络

[root@hadoop100 ~]# service network restart
Restarting network (via systemctl):                        [  确定  ]

再次查看网络ip,确定ip地址修改成功,并测试能否连接外网
在这里插入图片描述
在这里插入图片描述
(5)修改主机名和hosts映射文件

  1. 查看主机名
[root@hadoop100 ~]# hostname
hadoop100
  1. 如果想要修改主机名,可以通过编辑/etc/hostname 文件
[root@hadoop100 ~]# vim /etc/hostname

在这里插入图片描述
3. 修改hosts映射文件
后续在hadoop阶段虚拟机比较多,每次访问类似192.168.10.100的ip地址比较麻烦,通常会采用主机名的方式进行配置。

  • 打开/etc/hosts
[root@hadoop100 ~]# vim /etc/hosts
  • 添加如下内容(多添加几个,为搭建集群做准备)
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
  1. 修改windows的hosts文件
    windows的hosts文件路径在C:\Windows\System32\drivers\etc,打开hosts文件并添加如下内容并保存。
    如果无法保存成功,可以复制一个hosts文件到别的路径下,修改完成后覆盖原文件。
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107

打开命令提示符窗口,测试直接ping主机名,如果成功,说明修改完成。
在这里插入图片描述
(6)关闭防火墙,防止防火墙开机自启动

[root@hadoop100 ~]# systemctl stop firewalld
[root@hadoop100 ~]# systemctl disable firewalld.service

(7)创建一个普通用户,方便后期登录普通用户加sudo命令执行root权限

  • 创建用户并修改密码
    useradd user
    passwd user
  • 修改配置文件,让user用户具有root权限
[root@hadoop100 ~]# vim /etc/sudoers

在这里插入图片描述
注意:user这一行必须放在%wheel这一行下面,因为所有用户都属于wheel组,如果先配置了user的权限和免密登陆,当执行到wheel这一行,权限和功能又会被覆盖。

(8)创建在/opt下创建两个文件夹并修改所属主和所属组

  • 创建module和software文件夹`
[root@hadoop100 ~]# mkdir /opt/module
[root@hadoop100 ~]# mkdir /opt/software
  • 修改新创建的文件夹所属主和所属组为user用户
[root@hadoop100 ~]# chown user:user /opt/module 
[root@hadoop100 ~]# chown user:user /opt/software
  • 查看module和software的所属主和所属组
[root@hadoop100 opt]# ll
总用量 55136
-rw-r--r--. 1 root root        0 10月 25 20:24 hello
drwxr-xr-x. 2 user user        6 10月 29 17:58 module
drwxr-xr-x. 2 root root        6 10月 31 2018 rh
drwxr-xr-x. 2 user user        6 10月 29 17:59 software
drwxr-xr-x. 4 root root       47 10月 27 19:15 test
-rw-------. 1 root root 56457489 7月  18 2020 VMwareTools-10.3.23-16594550.tar.gz
drwxr-xr-x. 9 root root      145 7月  18 2020 vmware-tools-distrib
[root@hadoop100 opt]# 

(9)安装epel-release
Extra Packages for Enterprise Linux是为“红帽系”的操作系统提供额外的软件包,适用于RHEL、CentOS和Scientific Linux,相当于是一个软件仓库。

[root@hadoop100 ~]# yum install -y epel-release

(10)卸载虚拟机自带的jdk

[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps

重启虚拟机

[root@hadoop100 ~]# reboot

2.克隆虚拟机

(1)用创建好的模板机hadoop100克隆三台虚拟机hadoop102、hadoop103和hadoop104,克隆时必须关闭hadoop100。在hadoop上单击右键,管理,点击“克隆”。
在这里插入图片描述
(2)点击下一页
在这里插入图片描述
(3)勾选虚拟机中的当前状态,下一页
在这里插入图片描述
(4)勾选创建完整克隆,下一页
在这里插入图片描述

(5)修改新虚拟机名称和存储路径,点击完成即可。
在这里插入图片描述
(6)修改新克隆出来的hadoop102、hadoop103、hadoop104的静态ip、主机名、映射文件,步骤和模板机修改方法完全相同,分别测试网络。

二、在虚拟机中安装JDK

  1. 卸载虚拟机自带的JDK
    上一节中已经卸载
  2. 使用Xftp传输工具将JDK导入/opt/software
    在这里插入图片描述
  3. 确认软件包是否导入成功
[root@hadoop102 software]# ll
总用量 520600
-rw-rw-r--. 1 user user 338075860 10月 30 08:52 hadoop-3.1.3.tar.gz
-rw-rw-r--. 1 user user 195013152 10月 30 08:53 jdk-8u212-linux-x64.tar.gz
[root@hadoop102 software]# 
  1. 将JDK解压到/opt/module中
[atguigu@hadoop102 software]$ tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/
  1. 配置JDK环境变量
  • 新建/etc/profile.d/my_env.sh文件
[user@hadoop102 ~]$ sudo vim /etc/profile.d/my_env.sh
  • 在my_env.sh中添加如下内容
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin
  • 保存后退出:wq
  • 让新配的环境变量生效
[user@hadoop102 ~]$ source /etc/profile
  • 输入java -version测试JDK是否安装成功
[root@hadoop102 software]# java -version
java version "1.8.0_212"
Java(TM) SE Runtime Environment (build 1.8.0_212-b10)
Java HotSpot(TM) 64-Bit Server VM (build 25.212-b10, mixed mode)
[root@hadoop102 software]# 

三、在虚拟机中安装Hadoop

  1. 使用Xftp传输工具将hadoop-3.1.3.tar.gz导入/opt/software
    在这里插入图片描述
  2. 确认软件包是否导入成功
[root@hadoop102 software]# ll
总用量 520600
-rw-rw-r--. 1 user user 338075860 10月 30 08:52 hadoop-3.1.3.tar.gz
-rw-rw-r--. 1 user user 195013152 10月 30 08:53 jdk-8u212-linux-x64.tar.gz
[root@hadoop102 software]# 
  1. 将hadoop解压到/opt/module中
[user@hadoop102 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/
  1. 配置Hadoop环境变量
  • 打开/etc/profile.d/my_env.sh文件
[user@hadoop102 hadoop-3.1.3]$ sudo vim /etc/profile.d/my_env.sh
  • 追加以下内容,保存退出:wq
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
  • 让新配的环境变量生效
[user@hadoop102 ~]$ source /etc/profile
  • 输入hadoop version确认是否安装成功
[root@hadoop102 software]# hadoop version
Hadoop 3.1.3
Source code repository https://gitbox.apache.org/repos/asf/hadoop.git -r ba631c436b806728f8ec2f54ab1e289526c90579
Compiled by ztang on 2019-09-12T02:47Z
Compiled with protoc 2.5.0
From source with checksum ec785077c385118ac91aadde5ec9799
This command was run using /opt/module/hadoop-3.1.3/share/hadoop/common/hadoop-common-3.1.3.jar
[root@hadoop102 software]# 
  • 12
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值