hadoop伪分布模式搭建(详细步骤)

一、前期准备

1. 关闭防火墙

2. 安装好JDK

3. 准备hadoop安装包

二、安装hadoop伪分布模式

1. 在home/hadoop/software/路径下创建hadooptmp目录

2. 解压hadoop-3.3.0.tar.gz

3.  进入hadoop-3.3.0/etc/hadoop

4.  编辑hadoop运行是的环境

5.  配置NameNode所在的主机或者通讯地址及NameNode格式化后的目录的路径

6. 配置DataNode的数据块冗余度

7. 配置MapReduce运行框架的yarn容器

8. 配置ResourceManager所在的主机及MapReduce的shuffer方式

9. 配置hadoop环境变量

10 . 更新bash_profile 文件内容

11.  格式NameNode

12. 启动hadoop相关进程

 13. 查看进程


一、前期准备

hadoop版本主机名ip安装路径
hadoop-3.3.0hadooptest192.168.254.172

home/hadoop/software/hadoop-3.3.0

1. 关闭防火墙

(1) 临时关闭防火墙命令:service iptables stop

(2)永久关闭防火墙命令:chkconfig iptables off

2. 安装好JDK

如果jdk没有安装好的可以参考这篇文章

https://editor.csdn.net/md/?articleId=126587725

3. 准备hadoop安装包

hadoop-3-3.0下载地址

http://链接:https://pan.baidu.com/s/1YClfndoOCRdr_yRIxPrj_A?pwd=v8i1

注:下载好hadoop压缩包之后,将压缩包上传至虚拟机(此处上传的路径为home/hadoop/software/)

二、安装hadoop伪分布模式

1. 在home/hadoop/software/路径下创建hadooptmp目录

mkdir /hone/hadoop/software/hadooptmp

注意:这里的/hone/hadoop/software/是我存放hadoop压缩包的路径,对应改成自己的即可

2. 解压hadoop-3.3.0.tar.gz

tar -zxvf hadoop-3.3.0.tar.gz 

3.  进入hadoop-3.3.0/etc/hadoop

cd  home/software//hadoop-3.3.0/etc/hadoop

注意:这里是解压过后的hadoop-3.3.0/etc/hadoop   而不是直接cd hadoop

4.  编辑hadoop运行是的环境

vi hadoop-env.sh

进入文件之后,添加jdk的环境变量,如下:

export JAVA_HOME=/home/hadoop/software/jdk1.8.0_171 

添加好之后保存退出

注意这里/home/hadoop/software/是我存放jdk的路径,自己对应改成自己的即可

5.  配置NameNode所在的主机或者通讯地址及NameNode格式化后的目录的路径

vi core-site.xml

进入文件之后,滑到文件最下边,在<configuration></configuration>中添加如下内容

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadooptest:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/software/hadooptmp</value>

</property>

添加好之后保存退出

注意:这里的hadooptest是我的主机名,对应改成自己的主机名

          这里的/home/hadoop/software/hadooptmp是第一步创建Hadooptmp的路径

6. 配置DataNode的数据块冗余度

vi hafs-site.xml

进入文件之后,滑到文件最下边,在<configuration></configuration>中添加如下内容

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

添加好之后保存退出

7. 配置MapReduce运行框架的yarn容器

 vi mapred-site.xml

进入文件之后,滑到文件最下边,在<configuration></configuration>中添加如下内容

 <property>

  <name>mapreduce.framework.name</name>

   <value>yarn</value>

   </property>

添加好之后保存退出

8. 配置ResourceManager所在的主机及MapReduce的shuffer方式

 vi yarn-site.xml

进入文件之后,滑到文件最下边,在<configuration></configuration>中添加如下内容

<property>

<name>yarn.nodemanger.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

添加好之后保存退出

9. 配置hadoop环境变量

 vi ~/.bash_profile

在文件中添加如下内容

export HADOOP_HOME=/home/hadoop/software/hadoop-3.3.0

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

注意:这里的/home/hadoop/software/hadoop-3.3.0是hadoop存放的路径,对应改成自己存放hadoop的路径即可

10 . 更新bash_profile 文件内容

source ~/.bash_profile

11.  格式NameNode

 hadoop  namenode  -format

12. 启动hadoop相关进程

start-all.sh  

出现下图内容则启动完成

 13. 查看进程

jps

之后会显示如下内容

到这里hadoop伪分布集群我们就搭建好啦,第一次搭建的话可能会遇到一些问题,有问题的可以评论,或者私聊我。

  • 9
    点赞
  • 120
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 7
    评论
好的,下面是Hadoop分布式搭建详细步骤: 1. 安装Java环境:Hadoop运行需要Java环境,因此首先需要安装Java。可以使用以下命令安装OpenJDK: ``` sudo apt-get update sudo apt-get install openjdk-8-jdk ``` 2. 下载Hadoop压缩包:从Hadoop官网下载所需版本的Hadoop压缩包。可以使用以下命令下载Hadoop 3.2.2版本: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz ``` 3. 解压Hadoop压缩包:使用tar命令解压下载下来的Hadoop压缩包。可以使用以下命令解压: ``` tar -xzvf hadoop-3.2.2.tar.gz ``` 4. 配置Hadoop环境变量:在.bashrc文件中添加Hadoop环境变量。可以使用以下命令进行编辑: ``` nano ~/.bashrc ``` 在文件末尾添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后使用以下命令使修改生效: ``` source ~/.bashrc ``` 5. 修改Hadoop配置文件:主要包括core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。这些文件位于Hadoop的conf目录下。 - core-site.xml 在core-site.xml文件中添加以下配置: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` - hdfs-site.xml 在hdfs-site.xml文件中添加以下配置: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` - mapred-site.xml 复制mapred-site.xml.template文件并重命名为mapred-site.xml,然后在mapred-site.xml文件中添加以下配置: ``` <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` - yarn-site.xml 在yarn-site.xml文件中添加以下配置: ``` <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.env-whitelist</name> <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value> </property> </configuration> ``` 6. 初始化HDFS:使用hadoop namenode -format命令初始化HDFS。 ``` hadoop namenode -format ``` 7. 启动Hadoop服务:使用start-dfs.sh和start-yarn.sh命令启动Hadoop服务。 ``` start-dfs.sh start-yarn.sh ``` 运行以上命令后,可以使用jps命令查看Hadoop服务是否已经启动。 8. 验证Hadoop是否正常运行:在浏览器中访问http://localhost:9870/,可以看到Hadoop的Web界面。在界面中可以查看HDFS的状态、节点信息等。 以上就是Hadoop分布式搭建详细步骤,希望对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小-枝-丫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值