Hadoop伪分布集群搭建(单节点)

## 一、系统基础操纵:

1、修改主机名

sudo hostnamectl set-hostname hadoop
bash

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LEqeHAg7-1664255722246)(:/ee9ce513a2e24ade80c7e23577721e20)]

2、禁用防火墙

systemctl stop firewalld.service 
systemctl disable firewalld.service 
systemctl status firewalld.service


在这里插入图片描述

3、禁用SELinux

vi /etc/selinux/config


在这里插入图片描述

4、修改repo源

5、安装软件

二、Java环境配置

1、解压

tar -zxf jdk-8u221-linux-x64.tar.gz -C /opt/module/

2、配置系统环境变量

vi /etc/profile.d/hadoop.sh
export JAVA_HOME=/opt/module/jdk1.8.0_221
export PATH=$PATH:$JAVA_HOME/bin

(:/fd350a77086341629c77c0dfe6aa10f2)]

3、生效

source /etc/profile.d/hadoop.sh 

4、测试

java -version

三、ssh免密登录

1、启动ssh守护进程

systemctl start sshd

2、查看状态

systemctl status sshd

3、生成密钥对

ssh-keygen

4、切换目录

cd ~/.ssh/

在这里插入图片描述

5、添加公钥

cat id_rsa.pub > authorized_keys

在这里插入图片描述

6、修改权限

chmod 600 authorized_keys

在这里插入图片描述

7、使用本机做回环测试

ssh root@hadoop

在这里插入图片描述

8、退出

exit

在这里插入图片描述

四 、gadoop配置安装

1、解压压缩包

tar -xzf hadoop-2.7.7.tar.gz -C /opt/module/

在这里插入图片描述

2、 配置hadoop系统环境变量

vi /etc/profile.d/hadoop.sh

export HADOOP_HOME=/opt/module/hadoop-2.7.7
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_PATH/sbin

在这里插入图片描述在这里插入图片描述

3、使脚本生效

source /etc/profile.d/hadoop.sh

在这里插入图片描述

4、查看是否生效

hadoop version

在这里插入图片描述

五、配置HDFS

1、配置hadoop-env.sh中的JAVA_HOME

先进入
/opt/module/hadoop-2.7.7/etc/hadoop

vi hadoop-env.sh


:! echo $JAVA_HOME

在这里插入图片描述在这里插入图片描述

/opt/module/jdk1.8.0_221
在这里插入图片描述在这里插入图片描述

2、配置core-site.xml

vi core-site.xml

在这里插入图片描述

新的

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

原来的

 <property>
  <name>dfs.defaultFS</name>
  <value>hdfs://hadoop:9000</value>
 </property>
 <property>
  <name>hadoop.tmp.dir</name>
  <value>/home/root/hadoop</value>
 </property>

在这里插入图片描述

3、配置hdfs-site.xml

vi hdfs-site.xml

在这里插入图片描述

 <property>
  <name>dfs.replication</name>
  <value>1</value>
 </property>
 <property>
  <name>dfs.namenode.name.dir</name>
  <value>file:///home/root/hadoop/name</value>
 </property>
  <property>
  <name>dfs.namenode.data.dir</name>
  <value>file:///home/root/hadoop/data</value>
 </property>

4、配置mapred-site.xml文件

cp mapred-site.xml.template mapred-site.xml

在这里插入图片描述

vi mapred-site.xml

在这里插入图片描述

 <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
 </property>

在这里插入图片描述

5、配置yarn-site.xml

vi yarn-site.xml

在这里插入图片描述

 <property>
  <name>yarn.resourcemanager.hostname</sname>
  <value>hadoop</value>
 </property>
 <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
 </property>

在这里插入图片描述

6、配置slaves

vi slaves


在这里插入图片描述
在这里插入图片描述

7、格式化NameNode

hdfs namenode -format


在这里插入图片描述

六、启动Hadoop

/opt/module/hadoop-2.7.7/sbin

bash start-all.sh

在这里插入图片描述

查看启动:

jps

在这里插入图片描述

http://192.168.0.108:50070/dfshealth.html#tab-overview
在这里插入图片描述

http://192.168.0.108:8088/cluster
在这里插入图片描述

结语

2022-08-27 12:08 凌晨
由于jar包导错了,导致最后的运行 出现不兼容现象,运行失败,两小时时间排错。卸载重装jdk,解决问题。要注意环境的需求。

报错处理

参考大佬连接
https://www.javaroad.cn/questions/79621

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

S1Lu

多谢支持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值