Hadoop 运行环境搭建(开发重点)
1.1 模板虚拟机环境准备
0)安装模板虚拟机,IP 地址 192.168.10.100、主机名称 hadoop100、内存 4G、硬盘 50G
参见文件1和文件2
注:本虚拟机使用的是centos6,vmware和Centos版本如下图,大数据学习大文件中存有。
1)hadoop100 虚拟机配置要求如下(本文 Linux 系统全部CentOS-7.5-x86-1804 为例)
(1)使用 yum 安装需要虚拟机可以正常上网,yum 安装前可以先测试下虚拟机联网情
况
[root@hadoop100 ~]# ping www.baidu.com
PING www.baidu.com (14.215.177.39) 56(84) bytes of data.
64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=1
ttl=128 time=8.60 ms
64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=2
ttl=128 time=7.72 ms
(2)安装 epel-release
注:Extra Packages for Enterprise Linux 是为“红帽系”的操作系统提供额外的软件包,
适用于 RHEL、CentOS 和 Scientific Linux。相当于是一个软件仓库,大多数 rpm 包在官方 repository 中是找不到的)
[root@hadoop100 ~]# yum install -y epel-release
注:centos6软件仓库已经淘汰,已经没有了,因此yum功能用不了,需要修改默认yum源为阿里云yum镜像源,操作过程参考小文件6。
2)关闭防火墙,关闭防火墙开机自启
关闭虚拟机防火墙:
关闭命令: service iptables stop
永久关闭防火墙:chkconfig iptables off
查看防火墙关闭状态:service iptables status
注意:①在企业开发时,通常单个服务器的防火墙时关闭的,公司整体对外会设置非常安
全的防火墙;②这是centos6所使用的的关闭防火墙命令。
3)创建 atguigu 用户,并修改 atguigu 用户的密码
[root@hadoop100 ~]# useradd atguigu
[root@hadoop100 ~]# passwd atguigu
(注:部署虚拟机时做了这一步就不用做)
4)配置 atguigu 用户具有 root 权限,方便后期加 sudo 执行 root 权限的命令
[root@hadoop100 ~]# vim /etc/sudoers
修改/etc/sudoers 文件,在%wheel 这行下面添加一行,如下所示:
## Allow root to run any commands anywhere
root ALL=(ALL) ALL
## Allows people in group wheel to run all commands
%wheel ALL=(ALL) ALL
atguigu ALL=(ALL) NOPASSWD:ALL
注意:atguigu 这一行不要直接放到 root 行下面,因为所有用户都属于 wheel 组,你先
配置了 atguigu 具有免密功能,但是程序执行到%wheel 行时,该功能又被覆盖回需要
密码。所以 atguigu 要放到%wheel 这行下面。
注意:建立用户后要注意下面文档用的是atguigu账户输入命令,还是root用户,不注意区分的话,可能出错。
说明:由于 root 环境下操作比较危险,所以这里新建一个普通用户来进行 hadoop 的搭建。
创建一个普通用户 hadoop。
5)在/opt 目录下创建文件夹,并修改所属主和所属组
(1)在/opt 目录下创建 module、software 文件夹
[root@hadoop100 ~]# mkdir /opt/module
[root@hadoop100 ~]# mkdir /opt/software
(
2)修改 module、software 文件夹的所有者和所属组均为 atguigu 用户
[root@hadoop100 ~]# chown atguigu:atguigu /opt/module
[root@hadoop100 ~]# chown atguigu:atguigu /opt/software
(
3)查看 module、software 文件夹的所有者和所属组
[root@hadoop100 ~]# cd /opt/
[root@hadoop100 opt]# ll
总用量 12
drwxr-xr-x. 2 atguigu atguigu 4096 5 月 28 17:18 module
drwxr-xr-x. 2 root root 4096 9 月 7 2017 rh
drwxr-xr-x. 2 atguigu atguigu 4096 5 月 28 17:18 software
6)卸载虚拟机自带的 JDK
注意:如果你的虚拟机是最小化安装不需要执行这一步。
[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps
➢ rpm -qa:查询所安装的所有 rpm 软件包
➢ grep -i:忽略大小写
➢ xargs -n1:表示每次只传递一个参数
➢ rpm -e –nodeps:强制卸载软件
7)重启虚拟机
[root@hadoop100 ~]# reboot
2.2 克隆虚拟机
1)利用模板机 hadoop100,克隆一台虚拟机:hadoop102
注意:克隆时,要先关闭 hadoop100
2)修改克隆机 IP,以下以 hadoop102 举例说明
(1)修改克隆虚拟机的静态 IP
参考小文件7
3)修改克隆机主机名,以下以 hadoop102 举例说明
(1)修改主机名称
vi /etc/sysconfig/network
HOSTNAME=localhost.localdomain #修改localhost.localdomain为hadoop102
注意:不能将/etc/hosts文件中的localhost.localdomain修改成hadoop102,否则hadoop集群起来后web页面打不开,谨记。以下是错误示范:
vi /etc/hosts
127.0.0.1 localhost.localdomain #修改localhost.localdomain为hadoop102
Reboot
谨记:此处出错是通过比较此文件步骤和尚硅谷Hadoop运行环境搭建内配置映射文件hosts步骤发现的,发现两个地方不同,尚硅谷文件里没有此出错步骤,而这里有这一步,说明可能这步有错,结果发现确实是这里有错,此步骤也是自己从网上抄来的,说明网上的步骤也可能有错,需要谨记。
(2)配置 Linux 克隆机主机名称映射 hosts 文件,打开/etc/hosts
[root@hadoop100 ~]# vim /etc/hosts
添加如下内容
192.168.253.100 hadoop100
192.168.253.101 hadoop101
192.168.253.102 hadoop102
192.168.253.103 hadoop103
192.168.253.104 hadoop104
192.168.253.105 hadoop105
192.168.253.106 hadoop106
192.168.253.107 hadoop107
192.168.253.108 hadoop108
4)重启克隆机 hadoop102
[root@hadoop100 ~]# reboot
5)修改 windows 的主机映射文件(hosts 文件)
如果操作系统是 window10,先拷贝出来,修改保存以后,再覆盖即可
(a)进入 C:\Windows\System32\drivers\etc 路径
(b)拷贝 hosts 文件到桌面
(c)打开桌面 hosts 文件并添加如下内容
192.168.253.100 hadoop100
192.168.253.101 hadoop101
192.168.253.102 hadoop102
192.168.253.103 hadoop103
192.168.253.104 hadoop104
192.168.253.105 hadoop105
192.168.253.106 hadoop106
192.168.253.107 hadoop107
192.168.253.108 hadoop108
(d)将桌面 hosts 文件覆盖 C:\Windows\System32\drivers\etc 路径 hosts 文件
2.3 在 hadoop102 安装 JDK
注:JDK版本如下图,文件在大数据学习大文件中存有
1)卸载现有 JDK
注意:安装 JDK 前,一定确保提前删除了虚拟机自带的 JDK。
[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps
➢ rpm -qa:查询所安装的所有 rpm 软件包
➢ grep -i:忽略大小写
➢ xargs -n1:表示每次只传递一个参数
➢ rpm -e –nodeps:强制卸载软件
- 用 XShell 传输工具将 JDK 导入到 opt 目录下面的 software 文件夹下面
3)在 Linux 系统下的 opt 目录中查看软件包是否导入成功
[atguigu@hadoop102 ~]$ ls /opt/software/
看到如下结果:
jdk-8u212-linux-x64.tar.gz
4)解压 JDK 到