前言
1.本篇文章主要参考博客:点击进入,整合了伪分布的环境搭建和一些踩坑事项。
2.环境搭建的节点机一共三台:pc1,pc2,pc3 ,其中pc1为管理机,三台节点机都使用用户Sillyhumans,如果你三台机器的用户名不一样,下面配置地址的时候可能要略作修改。
3.关闭防火墙后操作。
4.让管理机可以ssh免密登录到其他的节点机(包括他自己)。
5.保证管理机可以ping外网
一、伪分布式集群分别是什么?
简单来说就是一台机器上模拟多台机器的集成分布(假装自己有多台服务器)
二、安装Hadoop
首先下载Hadoop:点击进入下载
我下的版本是3.3
上传到l用户目录下进行解压
tar -zxvf hadoop-3.3.0.tar.gz
解压完成后修改文件名字为hadoop
mv hadoop-3.3.0 hadoop
接着配置环境变量,进入.bashrc文件,再文件末尾添加如下代码
export HADOOP_HOME=/home/Sillyhumans/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
然后保存退出,执行命令使配置生效
source .bashrc
验证:输入hadoop version,若出现版本信息,说明配置成功
三、伪分布式环境搭建
配置hosts文件中的映射
su root
输入密码
vi /etc/hosts
在末尾添加如下:
192.168.100.1 pc1
192.168.100.2 pc2
192.168.100.3 pc3
然后把hosts文件发送到pc2和pc3的root目录下
scp /etc/hosts root@pc2:/etc/
scp /etc/hosts root@pc3:/etc/
进入hadoop目录下的etc/hadoop文件
编辑如下几个文件,根据自己的主机名做修改(若权限不够可先切为root用户)
vi core-site.xml
修改为如下:
<configuration>
<property>
<name>hadoop