Centos7配置hadoop

Centos7配置hadoop

下载Centos7

Index of /apache/hadoop/common (cnnic.cn)

这里下载最新版hadoop-3.3.0

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BuCTiwQE-1619395042728)(D:\今天\hadoop\image-20210425171153178.png)]

配置网卡

规划ip地址

master 192.168.197.140/24

slave1 192.168.197.141/24

slave2 192.168.197.142/24

使用nat方式(静态IP地址)

在三台虚拟机中

cd /etc/sysconfig/network-scripts
vi ifcfg-ens33

修改网卡内容(这是其中一台,其余两台除了ip地址不一样,其余地方都一样)

TYPE=Ethernet
BOOTPROTO=static #将dhcp改为static
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=51581610-8015-41d6-bf88-5cef4f3a7f74 #默认生成即可
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.197.140 #添加或修改对应的ip地址,按照一个ip master两个ip slave
GATEWAY=192.168.197.2 #相应的网关地址,可以在虚拟网络编辑器中的VM8的nat设置中看
NETMASK=255.255.255.0
DNS1=114.114.114.114

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NAALixmO-1619395042730)(D:\今天\hadoop\image-20210425172940435.png)]

网络配置

设置主机名

hostnamectl set-hostname master

修改/etc/hosts文件

vi /ect/hosts

添加如下内容

192.168.197.140	master
192.168.197.141	slave1
192.168.197.142 slave2

最后重启网络

systemctl restart network

配置时间同步

Master节点

yum install chrony
vi /etc/chrony.conf

底部添加修改如下内容

local stratum 10
allow 192.168.197.0/24

Slave节点

yum install chrony
vi /etc/chrony.conf

添加如下内容

server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst
#上面三个有就不用加
server master iburst

设置自动重启

systemctl enable chronyd.service
systemctl restart chronyd.service

查看配置结果

chronyc sources

配置java(三台虚拟机都要配,包括一个master两个slave)

在VM中安装Centos7的GUI版本后,使用root账号进行java环境配置

查看本地是否带有java环境

yum list installed |grep java

使用root账户卸载掉原装的java

yum -y remove java-1.8.0-openjdk* 
yum -y remove tzdata-java*

编辑环境变量

vi /etc/profile

添加如下内容

export JAVA_HOME=/usr/lib/jvm/java-1.8.0
export JRE_HOME=$JAVA_HOME/jre  
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib

保存退出后输入

source /etc/profile

使配置生效。

验证java是否配好了使用如下指令查看

java -version

若正常弹出版本号则证明安装好了。

安装hadoop

创建hadoop用户(root账号且仅在master做)

useradd -m hadoop -s /bin/bash   # 创建新用户hadoop
passwd hadoop #设置密码

给予hadoop权限

visudo

找到root ALL=(ALL) ALL 这行

在下面加上

hadoop ALL=(ALL) 	ALL #(ALL)后面一个Tab

将hadoop压缩包使用xftp上传到 /opt/hadoop 目录在这个目录打开命令行

tar -zxvf hadoop-3.3.0.tar.gz
mv hadoop-3.3.0 hadoop

配置env(root账号且仅在master做)

vi /opt/hadoop/hadoop/etc/hadoop/hadoop-env.sh

找到 export JAVA_HOME

将前面的 # 去掉然后在后面加上 /usr/lib/jvm/java-1.8.0

最终效果为

export JAVA_HOME=/usr/lib/jvm/java-1.8.0

配置核心文件(root账号且仅在master做)

vi /opt/hadoop/hadoop/etc/hadoop/core-site.xml

需要加入的代码

<property>
		<name>fs.defaultFS</name>
		<value>hdfs://master:9000</value>
	</property>
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/opt/hadoop/hadoopdata</value>
</property>

内容的放置位置

<configuration>
将内容放在这里
</configuration>

配置文件系统(root账号且仅在master做)

vi /opt/hadoop/hadoop/etc/hadoop/hdfs-site.xml

需要加入的代码

<property>
		<name>dfs.replication</name>
		<value>1</value>
</property>

内容的放置位置

<configuration>
将内容放在这里
</configuration>

配置 yarn-site.xml 文件(root账号且仅在master做)

vi /opt/hadoop/hadoop/etc/hadoop/yarn-site.xml

需要加入的代码

<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>
<property>
	<name>yarn.resourcemanager.address</name>
	<value>master:18040</value>
</property>
<property>
	<name>yarn.resourcemanager.scheduler.address</name>
	<value>master:18030</value>
</property>
<property>
	<name>yarn.resourcemanager.resource-tracker.address</name>
	<value>master:18025</value>
</property>
<property>
	<name>yarn.resourcemanager.admin.address</name>
	<value>master:18141</value>
</property>
<property>
	<name>yarn.resourcemanager.webapp.address</name>
	<value>master:18088</value>
</property>

内容的放置位置

<configuration>
将内容放在这里
</configuration>

配置MapReduce计算框架文件(root账号且仅在master做)

vi /opt/hadoop/hadoop/etc/hadoop/mapred-site.xml

需要加入的代码

<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
</property>

内容的放置位置

<configuration>
将内容放在这里
</configuration>

配置master的slaves文件(root账号且仅在master做)

vi /opt/hadoop/hadoop/etc/hadoop/slaves

需要加入的代码

slave1
slave2

复制master上的Hadoop到slave节点(root账号且仅在master做)

scp -r /opt/hadoop root@slave1:/opt
scp -r /opt/hadoop root@slave2:/opt

Hadoop集群的启动-配置操作系统环境变量(三个虚拟机都要做)

cd /opt/hadoop
vi ~/.bash_profile

进入文件后将下面的内容加到文件底部

#HADOOP
export HADOOP_HOME=/opt/hadoop/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

保存退出后执行

source ~/.bash_profile

使改动生效

创建Hadoop数据目录(root账号且仅在master做)

mkdir /opt/hadoop/hadoopdata

格式化文件系统(root账号且仅在master做)

hadoop namenode -format

定义用户(root账号且仅在master做)

进入Hadoop安装目录下找到sbin文件夹

1、对于start-dfs.sh和stop-dfs.sh文件,添加下列参数:

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

2、对于start-yarn.sh和stop-yarn.sh文件,添加下列参数:

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

开启SSH服务(hadoop需要用到ssh,root账号且仅在master做)

systemctl start sshd.service

启动和关闭Hadoop集群(root账号且仅在master做)

cd /opt/hadoop/hadoop/sbin #安装主目录
start-all.sh #开启
stop-all.sh #关闭

验证是否启动

jps

如果显示:SecondaryNameNode、 ResourceManager、 Jps 和NameNode这四个进程,则表明主节点master启动成功

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CDi4ygPg-1619395042732)(D:\今天\hadoop\image-20210425182401952.png)]

进入Web端

http://master:9870

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NJcfV4pp-1619395042734)(D:\今天\hadoop\image-20210425182532631.png)]

总结

配置hadoop在一开始要把网络规划好,master以及slave。一定要java8以及相关环境,使用hadoop一定要开启ssh。没有定义用户的话可能会报错。web页面的端口,HDFS为9870,YARN为18088。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值