Hadoop的安装与配置

一.安装master虚拟机

1.网络配置
ip a 或 ifconfig 查看网络信息 
在虚拟网络编辑器中查看IP地址 
我的是192.168.43.0

编辑网络配置文件:
vi /etc/sysconfig/network-scripts/ifcfg-ens33
BOOTPROTO="dhcp"修改为BOOTPROTO="static"
ONBOOT='no'修改为ONBOOT=‘yes'
添加静态设置:
IPADDR=192.168.43.100
NETMASK=255.255.255.0
GATEWAY=192.168.43.2
DNS1=114.114.114.114
重启网卡:systemctl restart network
克隆master虚拟机分别为slave1,slave2.并修改其网络配置文件中的IP地址。

2.修改主机名称及对应关系
修改主机名称:hostnamectl set-hostname 主机名称
查看主机名称:hostname
修改主机名与IP的对应:vi /etc/hosts
192.168.43.100 master
192.168.43.101 slave1
192.168.43.102 slave2

3.关闭防火墙
关闭防火墙:systemctl stop firewalld
永久关闭:systemctl disable firewalld
查看防火墙状态:systemctl status firewalld

4.时间同步设置
时间同步设置:服务器端ntp时间服务器与客户端ntpdate
搜索:yum search ntp
安装:yum install ntp ntpdate
配置:vi /etc/ntp.conf
  restrict 192.168.43.0 mask 255.255.255.0 nomodify notrap
  server 127.127.1.0
  fudge 127.127.1.0 stratum 10
重启时间服务:systemctl restart ntpd
客户端更新:ntpdate -u master
slave1 slave2 安装客户端:yum install ntpdate
更新时间:ntpdate -u master 

5.三台免密操作
ssh-keygen -t rsa -P ''
ssh-copy-id 主机名称

二.hadoop的安装与配置
1.解压
上传hadoop的压缩包:hadoop-2.7.5.tar.gz
上传jdk的压缩包:jdk-8u162-linux-x64.tar.gz
tar -xzvf jdk-8u162-linux-x64.tar.gz -C /opt
tar -xzvf hadoop-2.7.5.tar.gz -C /opt
(这是我用的版本及我安装在了opt目录,根据要求进行更改)

2.改名(便于使用)
mv /opt/jdk1.8.0_162 /opt/jdk18
mv /opt/hadoop-2.7.5 /opt/hadoop

3.环境变量配置
vi /etc/profile
添加:export JAVA_HOME=/opt/jdk18
export HADOOP_HOME=/opt/hadoop
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
加载环境资源:source /etc/profile
输入:java hadoop 不出错则环境变量配置正确

4.配置hadoop文件
在/opt/hadoop/etc/hadoop目录下
1)vi hadoop-env.sh
   export JAVA_HOME=/opt/jdk18(jdk安装目录)
2)vi core-site.xml(核心组件文件)
 3)vi hdfs-site.xml(文件系统配置文件) 4)vi yarn-site.xml(yarn的站点配置文件)

 5)cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml

 6)vi slaves
需要删除原来文件里面localhost那一行
slave1
slave2

5.所有配置文件复制到slave1与slave2
scp -r /opt/* root@slave1:/opt
scp -r /opt/* root@slave2:/opt
scp /etc/profile slave1:/etc
scp /etc/profile slave2:/etc
分别登录slave1与slave2加载环境变量source /etc/profile

6.在master主机中进行格式化:
hdfs namenode -format 
出现successfully formatted则格式化成功。

7.在master主机中启动hadoop集群:start-all.sh&&start-yarn.sh
master输入jps出现:ResourceManager  NameNode  SecondaryNameNode  Jps四个进程
slave1与slave2输入jps出现:Jps  NodeManager  DataNode三个进程则Hadoop启动成功。
8.关闭集群:stop-all.sh
 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值