目录
修改主机名
vim /etc/hostname
slave
配置映射
#三台机器一样
vim /etc/hosts
192.168.196.130 slave
192.168.196.131 slave1
192.168.196.132 slave2
获取网关
nmcli device show
配置网关,ip地址
vim /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static" #设置为静态IP模式
DEFROUTE="yes"
IPADDR="192.168.196.130" #设置静态IP
NETMASK="255.255.255.0" #设置子网掩码
DNS1="192.168.196.2" #设置DNS地址
GATEWAY="192.168.196.2" #设置网关
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="enp3s0"
UUID="ddc227be-8516-4d71-8890-c550d764ef11"
DEVICE="enp3s0"
ONBOOT="yes" #开机生效
重启网卡
service network restart
免密登录
#按三次回车
ssh-keygen -t rsa
ssh-copy-id slave #第一台主机名
ssh-copy-id slave1 #第二台主机名
ssh-copy-id slave2 #第三台主机名
以上结束之后在另外两台机器各自配一遍,然后输入
ssh slave1
如果可以直接登入,说明配置成功
解压jdk到src文件夹下
tar zxvf /h3cu/jdk-8u311-linux-x64.tar.gz -C /usr/local/src/
修改jdk1.8.0_311 名字为jdk
mv /usr/local/src/jdk1.8.0_311 /usr/local/src/jdk
解压Hadoop到src文件夹下
tar zxvf /h3cu/hadoop.2.7.7.tar.gz -C /usr/local/src/
修改hadoop-2.7.7 名字为hadoop
mv /usr/local/src/hadoop.2.7.7/usr/local/src/hadoop
jdk配置环境变量
vim /root/.bash_profile
添加以下变量路径
#jdk
export JAVA_HOME=/usr/local/src/jdk
PATH=.:$JAVA_HOME:$JAVA_HOME/bin:$PATH:$HOME/bin
配置hadoop环境变量
vim /root/.bash_profile
#hadoop
export HADOOP_HOME=/usr/local/src/hadoop
PATH=.:$JAVA_HOME:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH:$HOME/bin
让已配置的环境变量生效
source /root/.bash_profile
启动Java,Hadoop检查一下是否配置成功
进入hadoop目录
cd /usr/local/src/hadoop/etc/hadoop
编辑hadoop-env.sh文件
vim hadoop.env.sh
#把export JAVA_HOME改为
export JAVA_HOME=/usr/local/src/jdk
编辑core-site.xml文件
vim core-site.xml
#翻到最下面
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://slave:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/src/hadoop/tmp</value>
</property>
</configuration>
编辑hdfs-site.xml文件
vim hdfs-site.xml
#翻到最下面
<configuration>
<property>
<name>dfs.nameservices</name>
<value>slave</value> #主机名
</configuration>
编辑mapred-site.xml文件
vim mapred-site.xml
#翻到最下面
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
编辑yarn-site.xml文件
vim yarn-site.xml
#翻到最下面
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>slave</value> #主机名
</property>
<property>
<name>yarn.nodemanager.aux-service</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
添加主机名。删除默认的localhost
vim slaves
slave #第一台主机名
slave1 #第二台主机名
slave2 #第三台主机名
将集群主节点的环境变量拷贝到另外两台子节点上
将环境变量拷贝到另外两台主机
scp -r /root/.bash_profile slave1:/root/.bash_profile
scp -r /root/.bash_profile slave2:/root/.bash_profile
使环境变量立即生效
source /root/.bash_profile
将Hadoop,jdk整个文件拷贝并覆盖到另外两台子节点
scp -r /usr/local/src/ slave1:/usr/local/
scp -r /usr/local/src/ slave2:/usr/local/
Hadoop集群测试
格式化hadoop命令
hdfs namenode -format
关闭防火墙
临时关闭防火墙
systemctl stop firewalld
彻底关闭防火墙
systemctl disable firewalld.service
全部启动
cd /usr/local/src/hadoop/sbin
start-all.sh