1、获取安装包
- 官网:http://hadoop.apache.org/
2、上传
- 把安装包上传到服务器
- 上传的方式
- 通过xftp上传
- 通过lrzsz上传
两种上传方式详见jdk部署:https://blog.csdn.net/weixin_44744442/article/details/119815062
3、安装jdk
- 详见:https://blog.csdn.net/weixin_44744442/article/details/119815062
4、准备服务器
service iptables status
service iptables stop
chkconfig iptables off
firewall-cmd --state
systemctl stop firewalld.service
systemctl disable firewalld.service
5、设置映射
- 修改 /etc/hosts 增加三台服务器的ip和主机名
192.168.182.102 hadoop1
192.168.182.103 hadoop2
192.168.182.104 hadoop3
scp /etc/hosts root@192.168.182.103:/etc
6、设置SSH免密码登录
- 生成私钥
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
- 各自的私钥追加到公钥中
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
- 把hadoop2和hadoop3追加到hadoop1的/.ssh/authorized_keys中,并且拷贝到hadoop2和hadoop3的/.ssh/authorized_keys中
7、上传并解压hadoop,移动到适当的位置
tar -zxf hadoop.tar.gz
mv hadoop /
8、配置环境变量
export HADOOP_HOME=/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin
9、刷新环境变量
source /etc/profile
10、验证
hadoop
- 验证结果如下
![在这里插入图片描述](https://img-blog.csdnimg.cn/f4358001d4f749229888bda382b3d4f2.jpg?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAd2VpeGluXzQ0NzQ0NDQy,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center)
11、创建临时目录
mkdir /usr/local/hadoop/temp
12、创建namenode目录
mkdir -p /usr/local/hadoop/hdfs/name
13、创建datanode目录
mkdir -p /usr/local/hadoop/hdfs/data
14、修改hadoop配置文件
- 拷贝 /usr/local/hadoop/etc/hadoop/mapred-site.xml.template(模板文件)成为mapred-site.xml文件
cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template mapred-site.xml
- 修改slaves:填入三个主机名
- 修改hadoop-ens.sh中的JAVA_HOME参数
- hadoop-ens.sh的路径 /usr/local/hadoop/etc/hadoop
export JAVA_HOME=/usr/local/java
- 添加yarn-env.sh中JAVA_HOME参数
export JAVA_HOME=/usr/local/java
- 修改core-site.xml(核心文件,配置对外访问路径)
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop:9000</value> (主机ip)
<description>HDFS的URI</description>
</property>
<property>
<name>dfs.name.dir</name>
<value>/hadoop/temp</value>
<description>临时目录</description>
</property>
- 修改hdfs-site.xml
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
<description>namenode元数据</description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
<description>datanode元数据</description>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
<description>数据备份个数</description>
</property>
- 修改mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
- 修改yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
<description>启动shuffle</description>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>centos6-hadoop1:8099</value>
<description>yarn的web监视端口</description>
</property>
15、把hadoop拷贝到其他服务器上
scp -r /usr/local/hadoop root@hadoop2:/usr/local/
scp -r /usr/local/hadoop root@hadoop3:/usr/local/
16、格式化
/usr/local/hadoop/bin/hdfs namenode -format
17、启动
start-dfs.sh
18、平台登录
- web管理平台
- yarn监控平台