Linux系统(Centos7)实现hadoop安装

Linux系统(Centos7)实现hadoop安装

工具:

Linux系统 :Centos7
JDK:JDK1.8
Hadoop:Hadoop-3.3.1
虚拟机:VMware Workstation Pro 16
本机系统:Windows10

一、虚拟机设置

1.设置虚拟机的网络连接方式

在这里插入图片描述

在这里插入图片描述

2.设置虚拟机网络配置

说明:修改子网IP设置,可自由设置固定IP;
若设置固定IP为192.168.2.2-255,例如:192.168.2.2,则子网IP为192.168.2.0;
若设置固定IP为192.168.1.2-255,例如:192.168.1.2,则子网IP为192.168.1.0;

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

3.配置本机VMent8的本地参数

说明:IPv4中的ip地址可随意设置,但不能和虚拟机的固定ip一样。

在这里插入图片描述

在这里插入图片描述

4.修改Centos7的网络配置文件

cd /etc/sysconfig/network-scripts/
ls   #查看配置文件名字
vim ifcfg-ens33

在这里插入图片描述

BOOTPROTO=static
ONBOOT=yes
IPADDR=192.168.25.11
PREFIX=24
GATEWAY=192.168.25.2   #网关,这里需和NAT模式具体地址参数中设置的网关IP一致
DNS1=114.114.114.114

我的个人配置
在这里插入图片描述

重启网络服务

service network restart

5.检查配置是否成功

(1)IP显示为设置后的IP则成功
在这里插入图片描述

(2)测试是否能连通外网,若有数据返回则成功

ping -c 4 www.baidu.com

在这里插入图片描述

若显示未找到服务器,但ping外网ip有数据返回一样表示成功

(3)使用cmd测试本机能否ping通虚拟机IP

在这里插入图片描述

6.修改虚拟机主机名

修改主机名
查看主机名:终端输入hostname
修改主机名:终端输入hostname Master

注意:修改主机名不会立刻在终端上显示,重新打开终端就可看到主机名已更换

二、JDK安装

1.前往官网下载JDK安装包:https://www.oracle.com/java/technologies/downloads/#java8

2.解压文件:使用XFTP等文件传输软件进行压缩包的传输,此链接为免费版XFTP下载链接:https://www.netsarang.com/zh/free-for-home-school/

连接时只需要修改选中的参数,其他保持默认即可

在这里插入图片描述

创建java文件夹并将jdk压缩包传入java文件夹中

也可以在终端中使用mkdir命令直接创建

在这里插入图片描述

进入jdk压缩包的目录下输入命令进行解压:

tar -zvxf jdk-8u202-linux-x64.tar.gz

在这里插入图片描述

3.配置系统环境,命令:

vim /etc/profile

在文件中添加:

export JAVA_HOME=/usr/java/jdk1.8.0_202   # 此处为自己的jdk版本
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

在这里插入图片描述

重启环境并验证jdk是否安装成功

source /etc/profile   
java -version

在这里插入图片描述

至此JDK安装完成

三、Hadoop安装与配置

1.Hadoop的安装与JDK安装一样,都是在usr文件夹下创建新的hadoop文件夹,使用XFTP将hadoop压缩包传入文件夹中并且解压

tar -zvxf hadoop-3.3.1.tar.gz

2.配置系统环境,与配置jdk时一样,输入命令:

vim /etc/profile

在文件中添加:

export HADOOP_HOME=/usr/hadoop/hadoop-3.3.1
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

在这里插入图片描述

重启环境并验证hadoop是否安装成功:

source /etc/profile
hadoop version

在这里插入图片描述

如图显示则表示hadoop安装成功

3.Hadoop完全分布式配置

(1)首先进入hadoop文件夹中创建几个文件夹:

mkdir /usr/hadoop/hadoop-3.3.1/tmp
mkdir /usr/hadoop/hadoop-3.3.1/data
mkdir /usr/hadoop/hadoop-3.3.1/data/namenode
mkdir /usr/hadoop/hadoop-3.3.1/data/datanode
mkdir /usr/hadoop/hadoop-3.3.1/pids
mkdir /usr/hadoop/hadoop-3.3.1/logs

(2)在终端上输入:

cd /usr/hadoop/hadoop-3.3.1/etc/hadoop

进入该文件夹中开始配置Hadoop完全分布式搭建所需的文件:

(注意将以下文件中的主机名和文件名修改为自己设置的主机名和文件名)

配置core-site.xml:

vim core-site.xml


<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://Master:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/hadoop/hadoop-3.3.1/tmp</value>
  </property>
</configuration>

在这里插入图片描述

配置mapred-site.xml:

vim mapred-site.xml


<configuration>
   <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
   </property>
   <property>
        <name>mapred.job.tracker</name>
        <value>Master:9001</value>
   </property>
</configuration>

在这里插入图片描述

配置yarn-site.xml

vim yarn-site.xml


<configuration>
<!-- Site specific YARN configuration properties -->
  <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
  </property>
  <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>Master</value>
  </property>
  <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
  </property>
  <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>604800</value>
  </property>
</configuration>

在这里插入图片描述

配置yarn-env.sh

vim yarn-env.sh


YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

在这里插入图片描述

配置hdfs-site.xml

vim hdfs-site.xml


<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/hadoop/hadoop-3.3.1/data/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/hadoop/hadoop-3.3.1/data/datanode</value>
    </property>
    <property>
         <name>dfs.permissions</name>
         <value>false</value>
    </property>
</configuration>

在这里插入图片描述

配置hadoop-env.sh

vim hadoop-env.sh


export JAVA_HOME=/usr/java/jdk1.8.0_202
export HADOOP_HOME=/usr/hadoop/hadoop-3.3.1
export PATH=$PATH:/usr/hadoop/hadoop-3.3.1/bin
export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"
export HADOOP_PID_DIR=/usr/hadoop/hadoop-3.3.1/pids

在这里插入图片描述

配置workers

vim workers

打开文件后将文件内的内容替换为你的主机名和IP地址,这里先提前写下另外两台需要克隆的虚拟机名字,之后克隆的两台虚拟机需要按照此时输入的主机名和IP进行修改

在这里插入图片描述

在终端输入:

cd /usr/hadoop/hadoop-3.3.1/sbin/

进入新的目录中

配置start-dfs.sh

vim start-dfs.sh


HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

在这里插入图片描述

配置stop-dfs.sh

vim stop-dfs.sh


HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

在这里插入图片描述

四、克隆虚拟机

1.关闭防火墙:

systemctl stop firewalld.service        // 临时关闭防火墙
systemctl disable firewalld.service     // 设置为开机不自启

2.添加虚拟机映射

vi /etc/hosts

在这里插入图片描述

3.克隆两台虚拟机

关闭当前虚拟机,克隆其余两台虚拟机

在这里插入图片描述

在这里插入图片描述

4.修改克隆机设置

设置Slave1和Slave2的主机名和IP地址

使用 hostname 主机名 修改

修改IP的方法和文章开始修改Master主机IP一致

在这里插入图片描述

在这里插入图片描述

5.设置SSH免密登录

在三台虚拟机上输入:

cd ~/.ssh
ssh-keygen -t rsa

一直按回车直到结束

结束后在三台虚拟机终端中输入:

ssh-copy-id Master
ssh-copy-id Slave1
ssh-copy-id Slave2

再在Master上进行授权:

chmod 0600 authorized_keys

将授权文件发送到其他主机:

scp authorized_keys Slave1:/root/.ssh/
scp authorized_keys Slave2:/root/.ssh/

将密钥发送出去

若在任意一台虚拟机中使用:

ssh 主机名

能进入所输入的虚拟机中则表示免密登录成功

登录之后一定要使用exit退出后再尝试登录其他主机或进行其他操作

五、启动集群

1.三台虚拟机先进行格式化处理:

hdfs namenode -format

2.启动集群

在Master中输入:

start-all.sh

以此来启动集群,若要关闭集群则输入:

stop-all.sh

启动完毕之后输入jps查看状态

Master和Slave应该有如下信息:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在Master主机上打开浏览器,输入:

Master:9870
Master:8088

在这里插入图片描述

在这里插入图片描述

若能访问这两个地址则表示Hadoop完全分布式搭建成功

参考文章:https://www.zhangshengrong.com/p/zAaOK6Z3ad/

  • 4
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值