Hadoop集群搭建(安装JDK,Hadoop)

  一、准备

1.准备一台模板虚拟机hadoop100,便于后面虚拟机的克隆

安装模板虚拟机,IP地址192.168.10.100、主机名称hadoop100、内存4G硬盘50G

参考:https://download.csdn.net/download/llx_2000/21481228

2.配置要求

1.2.1使用yum安装需要虚拟机可以正常上网,yum安装前可以先测试下虚拟机联网情况

[root@hadoop100 ~]# ping www.baidu.com

PING www.baidu.com (14.215.177.39) 56(84) bytes of data.

64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=1 ttl=128 time=8.60 ms

64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=2 ttl=128 time=7.72 ms

1.2.2安装epel-release

注:Extra Packages for Enterprise Linux是为“红帽系”的操作系统提供额外的软件包,适用于RHEL、CentOS和Scientific Linux。相当于是一个软件仓库,大多数rpm包在官方 repository 中是找不到的)

[root@hadoop100 ~]# yum install -y epel-release

1.2.3注意:如果Linux安装的是最小系统版,还需要安装如下工具;如果安装的是Linux桌面标准版,不需要执行如下操作

  • net-tool:工具包集合,包含ifconfig等命令

        [root@hadoop100 ~]# yum install -y net-tools

  • vim:编辑器

[root@hadoop100 ~]# yum install -y vim

 3.关闭防火墙及自启动

[root@hadoop100 ~]# systemctl stop firewalld

[root@hadoop100 ~]# systemctl disable firewalld.service

4.创建用户,修改密码

root@hadoop100 ~]# useradd llx

[root@hadoop100 ~]# passwd llx

 5.配置llx用户具有root权限,方便后期加sudo执行root权限的命令

        [root@hadoop100 ~]# vim /etc/sudoer

 修改/etc/sudoers文件,在%wheel这行下面添加一行,如下所示

## Allow root to run any commands anywhere

root    ALL=(ALL)     ALL

## Allows people in group wheel to run all commands

%wheel  ALL=(ALL)       ALL

llx   ALL=(ALL)     NOPASSWD:ALL

注意:llx这一行不要直接放到root行下面,因为所有用户都属于wheel组,你先配置了llx具有免密功能,但是程序执行到%wheel行时,该功能又被覆盖回需要密码。所以llx要放到%wheel这行下面。 

6.在/opt目录下创建文件夹,并修改所属主和所属组

1.6.1在/opt目录下创建module、software文件夹

[root@hadoop100 ~]# mkdir /opt/module

[root@hadoop100 ~]# mkdir /opt/software

 1.6.2修改module、software文件夹的所有者和所属组均为llx用户

[root@hadoop100 ~]# chown llx:llx /opt/module

[root@hadoop100 ~]# chown llx:llx /opt/software

1.6.3查看module、software文件夹的所有者和所属组

 [root@hadoop100 ~]# cd /opt/

[root@hadoop100 opt]# ll

总用量 12

drwxr-xr-x. 2 llx llx 4096 5月  28 17:18 module

drwxr-xr-x. 2 llx llx 4096 5月  28 17:18 software 

7. 卸载虚拟机自带的JDK

 注意:如果你的虚拟机是最小化安装不需要执行这一步。

[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps

  • rpm -qa:查询所安装的所有rpm软件包
  • grep -i:忽略大小写
  • xargs -n1:表示每次只传递一个参数
  • rpm -e –nodeps:强制卸载软件

8.重启虚拟机

root@hadoop100 ~]# reboot

二、克隆虚拟机 

1.利用模板机hadoop100,克隆三台虚拟机:hadoop102 hadoop103 hadoop104

注意:克隆时,要先关闭hadoop100

2.修改克隆机IP,以下以hadoop102举例说明

2.1修改克隆虚拟机的静态IP

[root@hadoop100 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

改成

DEVICE=ens33

TYPE=Ethernet

ONBOOT=yes

BOOTPROTO=static

NAME="ens33"

IPADDR=192.168.10.102

PREFIX=24

GATEWAY=192.168.10.2

DNS1=192.168.10.2

2.1查看Linux虚拟机的虚拟网络编辑器,编辑->虚拟网络编辑器->VMnet8

2.3查看Windows系统适配器VMware Network Adapter VMnet8的IP地址

2.4保证Linux系统ifcfg-ens33文件中IP地址、虚拟网络编辑器地址和Windows系统VM8网络IP地址相同。

3.修改克隆机主机名,以下以hadoop102举例说明

3.1修改主机名称

[root@hadoop100 ~]# vim /etc/hostname

hadoop102

3.2配置Linux克隆机主机名称映射hosts文件,打开/etc/hosts

[root@hadoop100 ~]# vim /etc/hosts

添加如下内容

192.168.10.100 hadoop100

192.168.10.102 hadoop102

192.168.10.103 hadoop103

192.168.10.104 hadoop104

4.重启克隆机hadoop102

[root@hadoop100 ~]# reboot

5.修改windows的主机映射文件(hosts文件)

5.1如果操作系统是window7,可以直接修改

       (a)进入C:\Windows\System32\drivers\etc路径

       (b)打开hosts文件并添加如下内容,然后保存

192.168.10.100 hadoop100

192.168.10.102 hadoop102

192.168.10.103 hadoop103

192.168.10.104 hadoop104

5.2如果操作系统是window10,先拷贝出来,修改保存以后,再覆盖即可

(a)进入C:\Windows\System32\drivers\etc路径

(b)拷贝hosts文件到桌面

(c)打开桌面hosts文件并添加如下内容

192.168.10.100 hadoop100

192.168.10.102 hadoop102

192.168.10.103 hadoop103

192.168.10.104 hadoop104

(d)将桌面hosts文件覆盖C:\Windows\System32\drivers\etc路径hosts文件

 三、安装JDK

1.卸载现有JDK

注意:安装JDK前,一定确保提前删除了虚拟机自带的JDK。

2)用XShell传输工具将JDK导入到opt目录下面的software文件夹下面

3.在Linux系统下的opt目录中查看软件包是否导入成功

[llx@hadoop102 ~]$ ls /opt/software/

看到如下结果:

jdk-8u212-linux-x64.tar.gz

4.解压JDK到/opt/module目录下

[llx@hadoop102 software]$ tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/

5.配置JDK环境变量

5.1新建/etc/profile.d/my_env.sh文件

[llx@hadoop102 ~]$ sudo vim /etc/profile.d/my_env.sh

添加如下内容

#JAVA_HOME

export JAVA_HOME=/opt/module/jdk1.8.0_212

export PATH=$PATH:$JAVA_HOME/bin

5.2保存后退出

:wq

5.3 source一下/etc/profile文件,让新的环境变量PATH生效

[llx@hadoop102 ~]$ source /etc/profile

6.测试JDK是否安装成功

[llx@hadoop102 ~]$ java -version

如果能看到以下结果,则代表Java安装成功。

java version "1.8.0_212"

注意:重启(如果java -version可以用就不用重启)

[llx@hadoop102 ~]$ sudo reboot

三、安装Hadoop

Hadoop下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/

1.用XShell文件传输工具将hadoop-3.1.3.tar.gz导入到opt目录下面的software文件夹下面

2.进入到Hadoop安装包路径下

[llx@hadoop102 ~]$ cd /opt/software/ 

3.解压安装文件到/opt/module下面

[llx@hadoop102 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

4.查看是否解压成功

[llx@hadoop102 software]$ ls /opt/module/

hadoop-3.1.3

5.将Hadoop添加到环境变量

5.1获取Hadoop安装路径

[llx@hadoop102 hadoop-3.1.3]$ pwd

/opt/module/hadoop-3.1.3

5.2打开/etc/profile.d/my_env.sh文件

[llx@hadoop102 hadoop-3.1.3]$ sudo vim /etc/profile.d/my_env.sh

  • 在my_env.sh文件末尾添加如下内容:(shift+g)

#HADOOP_HOME

export HADOOP_HOME=/opt/module/hadoop-3.1.3

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

  • 保存并退出: :wq

5.3让修改后的文件生效

[llx@hadoop102 hadoop-3.1.3]$ source /etc/profile

6.测试是否安装成功

[llx@hadoop102 hadoop-3.1.3]$ hadoop version

Hadoop 3.1.3

7.重启(如果Hadoop命令不能用再重启虚拟机)

[llx@hadoop102 hadoop-3.1.3]$ sudo reboot

四、Hadoop目录结构

1.查看Hadoop目录结构

   [llx@hadoop102 hadoop-3.1.3]$ ll

总用量 52

drwxr-xr-x. 2 llx llx  4096 5月  22 2017 bin

drwxr-xr-x. 3 llx llx  4096 5月  22 2017 etc

 drwxr-xr-x. 2 llx llx  4096 5月  22 2017 include

drwxr-xr-x. 3 llx llx  4096 5月  22 2017 lib

drwxr-xr-x. 2 llx llx  4096 5月  22 2017 libexec

-rw-r--r--. 1 llx llx 15429 5月  22 2017 LICENSE.txt

-rw-r--r--. 1 llx llx   101 5月  22 2017 NOTICE.txt

-rw-r--r--. 1 llx llx  1366 5月  22 2017 README.txt

drwxr-xr-x. 2 llx llx  4096 5月  22 2017 sbin

drwxr-xr-x. 4 llx llx  4096 5月  22 2017 share    

2.重要目录

(1)bin目录:存放对Hadoop相关服务(hdfs,yarn,mapred)进行操作的脚本

(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件

(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)

(4)sbin目录:存放启动或停止Hadoop相关服务的脚本

(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例

五、Hadoop运行模式

1.Hadoop官方网站:http://hadoop.apache.org/

2.Hadoop运行模式包括:本地模式伪分布式模式以及完全分布式模式

  • 本地模式:单机运行,只是用来演示一下官方案例。生产环境不用。
  • 伪分布式模式:也是单机运行,但是具备Hadoop集群的所有功能,一台服务器模拟一个分布式的环境。个别缺钱的公司用来测试,生产环境不用。
  • 完全分布式模式:多台服务器组成分布式环境。生产环境使用。

5.1本地运行模式(官方WordCount)

5.1.1创建在hadoop-3.1.3文件下面创建一个wcinput文件夹

[llx@hadoop102 hadoop-3.1.3]$ mkdir wcinput

5.1.2在wcinput文件下创建一word.txt文件

[llx@hadoop102 hadoop-3.1.3]$ cd wcinput

5.1.3编辑word.txt文件

[llx@hadoop102 wcinput]$ vim word.txt

  • 在文件中输入如下内容

hadoop yarn

hadoop mapreduce

llx

llx

  • 保存退出::wq

5.1.4回到Hadoop目录/opt/module/hadoop-3.1.3

5.1.5执行程序

[llx@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount wcinput wcoutput

5.1.6查看结果

[llx@hadoop102 hadoop-3.1.3]$ cat wcoutput/part-r-00000

看到如下结果:

llx 2

hadoop  2

mapreduce       1

yarn    1

5.2 完全分布式运行模式

分析:

       1)准备3台客户机(关闭防火墙、静态IP、主机名称)

       2)安装JDK

       3)配置环境变量

       4)安装Hadoop

       5)配置环境变量

       6)配置集群

       7)单点启动

       8)配置ssh

       9)群起并测试集群  

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值