## 一、系统基础操纵:
1、修改主机名
sudo hostnamectl set-hostname hadoop
bash
2、禁用防火墙
systemctl stop firewalld.service
systemctl disable firewalld.service
systemctl status firewalld.service
3、禁用SELinux
vi /etc/selinux/config
4、修改repo源
5、安装软件
二、Java环境配置
1、解压
tar -zxf jdk-8u221-linux-x64.tar.gz -C /opt/module/
2、配置系统环境变量
vi /etc/profile.d/hadoop.sh
export JAVA_HOME=/opt/module/jdk1.8.0_221
export PATH=$PATH:$JAVA_HOME/bin
3、生效
source /etc/profile.d/hadoop.sh
4、测试
java -version
三、ssh免密登录
1、启动ssh守护进程
systemctl start sshd
2、查看状态
systemctl status sshd
3、生成密钥对
ssh-keygen
4、切换目录
cd ~/.ssh/
5、添加公钥
cat id_rsa.pub > authorized_keys
6、修改权限
chmod 600 authorized_keys
7、使用本机做回环测试
ssh root@hadoop
8、退出
exit
四 、gadoop配置安装
1、解压压缩包
tar -xzf hadoop-2.7.7.tar.gz -C /opt/module/
2、 配置hadoop系统环境变量
vi /etc/profile.d/hadoop.sh
export HADOOP_HOME=/opt/module/hadoop-2.7.7
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_PATH/sbin
3、使脚本生效
source /etc/profile.d/hadoop.sh
4、查看是否生效
hadoop version
五、配置HDFS
1、配置hadoop-env.sh
中的JAVA_HOME
先进入
/opt/module/hadoop-2.7.7/etc/hadoop
vi hadoop-env.sh
:! echo $JAVA_HOME
/opt/module/jdk1.8.0_221
2、配置core-site.xml
vi core-site.xml
新的
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
原来的
<property>
<name>dfs.defaultFS</name>
<value>hdfs://hadoop:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/root/hadoop</value>
</property>
3、配置hdfs-site.xml
vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/root/hadoop/name</value>
</property>
<property>
<name>dfs.namenode.data.dir</name>
<value>file:///home/root/hadoop/data</value>
</property>
4、配置mapred-site.xml文件
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
5、配置yarn-site.xml
vi yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</sname>
<value>hadoop</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
6、配置slaves
vi slaves
7、格式化NameNode
hdfs namenode -format
六、启动Hadoop
在/opt/module/hadoop-2.7.7/sbin
下
bash start-all.sh
查看启动:
jps
http://192.168.0.108:50070/dfshealth.html#tab-overview
http://192.168.0.108:8088/cluster
结语
2022-08-27 12:08 凌晨
由于jar包导错了,导致最后的运行 出现不兼容现象,运行失败,两小时时间排错。卸载重装jdk,解决问题。要注意环境的需求。
报错处理
参考大佬连接:
https://www.javaroad.cn/questions/79621