Hadoop3.3.3单机版搭建


前言

单机版Hadoop安装,本次安装的Hadoop为,当前的最新版本Hadoop-3.3.3
正式安装请请先参考Hadoop基础环境安装


一、先配置SSH登录(若历史配置过则忽略)

1.进入目录 ~/.ssh 执行如下命令:

# 目录若不存在,则在任意目录下执行就可以
# 生成秘钥文件
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

# 将秘钥文件加入授权文件中
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

2.查看当前目录

在这里插入图片描述

3.输入 ssh localhost 检查是否设置成功

在这里插入图片描述

二、安装Hadoop

1.下载Hadoop安装包

地址:https://hadoop.apache.org/releases.html
注意:这边下载的是Binary文件!!!

2.解压缩安装包

tar -zxvf hadoop-3.3.3.tar.gz

3.配置环境变量

进入目录,执行命令pwd,记住这个路径!!!
在这里插入图片描述
执行命令修改 /etc/profile文件

vim /etc/profile

# Hadoop Environment
# HADOOP_HOME内容为上一步pwd命令的路径信息
export HADOOP_HOME="/usr/local/hadoop/hadoop-3.3.3"
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

配置后:

在这里插入图片描述
退出文件后执行命令,刷新配置文件

source /etc/profile

#执命令 查看安装结果
hadoop version

在这里插入图片描述

4.修改配置文件

进入目录:/usr/local/hadoop/hadoop-3.3.3/etc/hadoop/ (实际路径为安装Hadoop的路径下/etc/hadoop)。

1.修改配置文件 hadoop-env.sh

# 执行命令
vim hadoop-env.sh

# 增加配置
# JAVA_HOME 为你JDK的安装目录
export JAVA_HOME=java/jdk-11
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

配置后:
在这里插入图片描述
2. 修改配置文件 core-site.xml

# 执行命令
vim core-site.xml

# 增加配置
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://localhost:9820</value>
	</property>

	<property>
		<name>hadoop.tmp.dir</name>
		<value>/usr/hadoop/hadoopdata</value>
	</property>

配置后:
在这里插入图片描述
3.修改配置文件 hdfs-site.xml

# 执行命令
vim  hdfs-site.xml

# 增加配置文件
	<property>
		<name>dfs.replication</name>
		<value>1</value>
    </property>

配置后:
在这里插入图片描述
4.修改配置文件 mapred-site.xml

# 执行命令
vim  mapred-site.xml

# 增加配置信息
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>

配置后:
在这里插入图片描述
5.修改配置文件 yarn-site.xml

# 执行命令
vim  yarn-site.xml

# 增加配置信息
	<property>
  	<name>
  		yarn.nodemanager.aux-services
  	</name>
  	<value>
  		mapreduce_shuffle
  	</value>
	</property>
	<property>
		<name>
			yarn.nodemanager.env-whitelist
		</name>
		<value>
			JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CL
			ASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME
		</value>
	</property>

配置后:
在这里插入图片描述

5.设置目录权限

#执行命令 (后边的路径为,你实际安装Hadoop的路径)
chmod -R 777 /usr/local/hadoop/hadoop-3.3.3

6.格式化HDFS文件系统

# 进入该目录
cd /usr/local/hadoop/hadoop-3.3.3
# 格式化HDFS文件系统
bin/hdfs namenode -format

7.启动Hadoop

# 执行命令启动Hadoop
sbin/start-all.sh

启动后通过 jps 命令检查(出现这5个服务,就是启动成功)
在这里插入图片描述

8.登录网页

Hadoop:http://安装服务器的IP:8088/cluster
在这里插入图片描述
Namenode:http://安装服务器的IP:9870
在这里插入图片描述
DataNode:http://安装服务器的IP:9864
在这里插入图片描述


总结

这就是Hadoop单机版的安装,后续会更新HBASE的安装,以及集群的安装。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建Hadoop单机版,你可以按照以下步骤进行操作: 1. 下载Hadoop:访问Apache Hadoop官方网站(https://hadoop.apache.org/),选择合适的稳定版本,下载Hadoop压缩包。 2. 解压Hadoop压缩包:将下载的压缩包解压到你选择的目录中。 3. 配置环境变量:编辑你的环境变量文件(例如:~/.bashrc),添加以下行来设置Hadoop的路径: ``` export HADOOP_HOME=/你的Hadoop安装路径 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后运行`source ~/.bashrc`加载新的环境变量。 4. 配置Hadoop:进入Hadoop安装目录下的`etc/hadoop`目录,编辑`hadoop-env.sh`文件,设置JAVA_HOME为你系统中JDK的安装路径。 5. 配置核心文件:编辑`core-site.xml`文件,添加以下配置: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 6. 配置HDFS文件系统:编辑`hdfs-site.xml`文件,添加以下配置: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 7. 启动Hadoop:在终端中运行以下命令启动Hadoop: ``` hadoop namenode -format start-dfs.sh ``` 这将格式化HDFS并启动NameNode和DataNode。 8. 验证安装:打开浏览器,访问`http://localhost:9870`,你应该能够看到Hadoop集群的Web界面,表示Hadoop单机版已经成功搭建。 这些步骤适用于Hadoop单机版的基本安装和配置。如果你想要进一步了解和配置Hadoop,可以查阅官方文档或其他资源。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值