Centos之hadoop伪分布模式

Centos之Hadoop伪分布模式部署配置

Hadoop伪分布必须在已配置好Hadoop单机模式的基础上进行配置

Hadoop单机模式部署教程:Hadoop单机模式

配置好Hadoop单机模式后,开始配置伪分布

1、进入命令行界面,通过yum安装openssh

先通过命令:rpm -qa openssh 查询是否安装openssh,有结果则已安装,
没有结果则没有安装,需要通过命令 yum install openssh安装

yum install openssh安装不成功,则说明无yum源,先去配置yum源,再来安装openssh

yum源配置

2、命令行界面,通过cd命令,来到hadoop安装目录下的etc/hadoop/ 文件下,vim打开core-site.xml文件

在这里插入图片描述

修改内容,wq保存退出

在这里插入图片描述

<configuration>
	<property>
		<name>fs.default.name</name>
		<value>hdfs://localhost:9000</value>
	</property>
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/root/hadoop-2.5.1/tmp</value>
	</property>
</configuration>

3、在该目录下(hadoop安装目录下的etc/hadoop/),用vim打开hdfs-site.xml文件

在这里插入图片描述

修改内容,wq保存退出

在这里插入图片描述

<configuration>
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>
</configuration>

4、在该目录下(hadoop安装目录下的etc/hadoop/),用vim打开yarn-site.xml文件

在这里插入图片描述

修改内容,wq保存退出

在这里插入图片描述

<configuration>
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
	<property>
		<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
		<value>org.apache.hadoop.mapred.ShuffleHandler</value>
	</property>
</configuration>

5、在该目录下(hadoop安装目录下的etc/hadoop/),找到mapred-site.xml.template文件,复制并重命名该文件在当前目录(文件名:mapred-site.xml),vim打开mapred-site.xml

在这里插入图片描述

修改内容,wq保存退出

在这里插入图片描述

<configuration>
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
</configuration>

6、在该目录下(hadoop安装目录下的etc/hadoop/),vim打开hadoop-env.sh修改JAVA_HOME的值,该值为自己JDK的路径

在这里插入图片描述

修改内容,wq保存退出

在这里插入图片描述

7、vim打开/etc/profile修改环境变量

在这里插入图片描述

在export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin 这一行后添加 :$HADOOP_HOME/sbin,添加完成后,wq保存退出,命令source /etc/profile立即生效一下环境变量(亦可重启)

在这里插入图片描述

8、配置hadoop免密登陆

输入:ssh-keygen -t rsa(一路回车)

cd到~/.ssh目录

输入命令: cat id_rsa.pub >> authorized_keys

在这里插入图片描述

9、格式化hadoop

命令:hadoop namenode -format

在这里插入图片描述

出现“has been successfully formatted”才表示成功配置,否则重来

在这里插入图片描述

10、输入start-all.sh启动,出现提示输入yes/no,一律yes

启动完成后,输入jps,可以看到六个输出结果,代表hadoop伪分布搭建成功

在这里插入图片描述

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
CentOS 9 目前还没有正式发布,因此无法在 CentOS 9 上安装 Hadoop,不过你可以在 CentOS 7 上进行安装。以下是安装步骤: 1. 安装 Java 首先需要安装 Java,可以使用以下命令安装 OpenJDK: ``` sudo yum install java-1.8.0-openjdk-devel ``` 2. 下载 Hadoop 可以前往 Hadoop 官网 http://hadoop.apache.org/releases.html 下载最新版本的 Hadoop。选择稳定版本,下载后解压到指定目录。例如: ``` cd /opt sudo wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz sudo tar -xvzf hadoop-3.3.1.tar.gz ``` 3. 配置环境变量 为了方便使用,可以将 Hadoop 的 bin 目录添加到系统环境变量中。可以在 /etc/profile 文件中添加以下内容: ``` export HADOOP_HOME=/opt/hadoop-3.3.1 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后执行以下命令使配置生效: ``` source /etc/profile ``` 4. 配置 Hadoop 进入 Hadoop 的配置目录,编辑 core-site.xml 文件,添加以下内容: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 编辑 hdfs-site.xml 文件,添加以下内容: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/hadoop-3.3.1/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/opt/hadoop-3.3.1/hdfs/datanode</value> </property> </configuration> ``` 编辑 yarn-site.xml 文件,添加以下内容: ``` <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> ``` 5. 格式化 Hadoop 文件系统 执行以下命令格式化 Hadoop 文件系统: ``` hdfs namenode -format ``` 6. 启动 Hadoop 执行以下命令启动 Hadoop: ``` cd $HADOOP_HOME sbin/start-all.sh ``` 以上步骤基本完成了在 CentOS 7 上安装和启动 Hadoop 的过程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大树下躲雨

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值