Ubuntu 20.04下搭建单机伪分布式Hadoop

JDK环境配置

Hadoop需要JDK环境安装并配置:

https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html官网下载Linux的版本如jdk-8u231-linux-x64.tar.gz

新建Java文件夹并解压JDK:tar -zxvf jdk-8u231-linux-x64.tar.gz
在这里插入图片描述

配置环境变量:

cd /etc
sudo vi profile

在文件末尾增加以下内容(具体路径依据环境而定):

export JAVA_HOME=/Java/jdk1.8.0_11
export JRE_HOME=/Java/jdk1.8.0_11/jre
export PATH=${JAVA_HOME}/bin:$PATH

在这里插入图片描述

保存退出,在终端界面使用命令: source /etc/profile使配置文件生效。输入java -version查看是否配置成功
在这里插入图片描述

也可以选择安装openjdk:

#安装命令
sudo apt-get install openjdk-8-jre openjdk-8-jdk

#卸载命令
sudo apt-get remove openjdk-8-jdk
sudo apt-get remove openjdk-8-jre-headless 

下载并配置Hadoop

新建Hadoop文件夹,解压文件tar -zxvf hadoop-2.10.1.tar.gz
在这里插入图片描述
在这里插入图片描述
hadoop需要ssh免密登陆等功能,因此先安装ssh。

 sudo apt-get install ssh

解压后修改hadoop-env.sh配置文件在这里插入图片描述修改JAVA_HOME为本机的JDK路径。在这里插入图片描述

配置Hadoop的环境变量:在/etc/profile追加Hadoop的环境变量。
在这里插入图片描述

修改core-site.xml配置文件
在这里插入图片描述


<configuration>
	<property>
        	<name>fs.defaultFS</name>
        	<value>hdfs://localhost:9000</value>
   	</property>
   	<property>
        	<name>hadoop.tmp.dir</name>
        	<value>/home/master/Hadoop/hadoop-2.10.1/etc/tmp</value>
   	</property>
   	
</configuration>

注意一定要设置hadoop.tem.dir不然下次启动会找不到namenode

修改hdfs-site.xml配置文件
在这里插入图片描述

<configuration>
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>
</configuration>

设置免密登陆

输入ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa出现下面内容:
在这里插入图片描述
再输入cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
接着输入chmod 0600 ~/.ssh/authorized_keys
在这里插入图片描述
检验免密登录是否成功:
使用命令:ssh localhost输入yes,出现下面情况就说明ok了。在这里插入图片描述

验证Hadoop安装

格式化文件系统,只能格式化一次。hdfs namenode -format
在这里插入图片描述
在这里插入图片描述

启动hadoop进程start-dfs.shstart-all.sh结果却出现:
在这里插入图片描述
出错的原因是脚本命令实在hadoop文件夹下的sbin目录而不是bin目录
在这里插入图片描述
修改/etc/profile的最后一个PATH的${HADOOP_HOME}/sbin将bin改为sbin即可。

修改后成功启动hadoop集群:
在这里插入图片描述
输入jps查看hadoop进程:
在这里插入图片描述

注意要在namenode上启动集群

通过web访问hadoop
主机输入:[ip:50070]访问NameNode
在这里插入图片描述
主机输入:[ip:50090]访问DataNode

在这里插入图片描述

常见命令:
stop-all.shstop-dfs.sh停止所有进程。
start-all.shstart-dfs.sh启动所有进程。
jps查看所有进程。

上面的hadoop环境搭建式伪分布式的,一台虚拟机既做主节点又作从节点。搭建完整集群参考Linux公社。

更多资讯访问Linux公社Ubuntu论坛

  • 0
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

xvwen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值