hadoop-3.2.1全分布式安装教程

本文编写的时候,创建了三台虚拟机,分别为master、slev1、slev2。jdk版本为8.+。


​​​​1、下载hadoop-3.2.1.tar.gz

wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz

在这里插入图片描述

2、安装hadoop-3.2.1

(1)解压hadoop-3.2.1.tar.gz后即完成安装

tar -zxvf ./hadoop-3.2.1.tar.gz

在这里插入图片描述

3、配置hadoop-3.2.1

(1)进入到"hadoop-3.2.1/etc/hadoop/"路径下配置core-site.xml文件

cd ./hadoop-3.2.1/etc/hadoop/
vi ./core-site.xml
<property>
      <name>fs.defaultFS</name>
      <value>hdfs://master:8020</value>
      <description>hbdf地址,安装在master上,端口为8020</description>
</property>
<property>
      <name>hadoop.tmp.dir</name>
      <value>file:/usr/local/hadoop-3.2.1/hadoopdate</value>
      <description>hadoop的数据存放地址</description>
</property>
<property>
      <name>io.file.buffer.size</name>
      <value>131702</value>
      <description>缓存大小设置,单位为KB,131072KB即为默认的64M</description>
</property>
<property>
      <name>ha.zookeeper.quorum</name>
      <value>master:2181,slev1:2181,slev2:2181</value>
      <description>zookeeper集群地址设置,用于故障转移</description>
</property>

在这里插入图片描述
(2)进入到"hadoop-3.2.1/etc/hadoop/"路径下配置hbase-site.xml文件

cd ./hadoop-3.2.1/etc/hadoop/
vi ./hbase-site.xml 
<property>
    <name>hbase.rootdir</name>
    <value>hdfs://master:8020/hbase</value>
    <description>hbase数据存放的地址,hdfs://master:8020和core-site.xml中配置保持一致</description>
 </property>
 <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
    <description>是否开启分布式</description>
 </property>
 <property>
    <name>hbase.zookeeper.property.clientPort</name>
    <value>2181</value>
    <description>指定zookeeper的端口号</description>
 </property>
 <property>
     <name>hbase.master</name>
     <value>60000</value>
     <description>baseMaster的主机和端口号配置项,只需配置端口号即可</description>
  </property>
  <property>
    <name>hbase.zookeeper.quorum</name>
    <value>master,slev1,slev2</value>
    <description>对应的zookeeper集群,不用加端口</description>
  </property>
  <property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>file:/usr/local/zookeeper-3.6.2/zkdata</value>
    <description>zookeeper存放数据的地址,这里和zookeeper中的zoo.cfg中的配置项要保持一致</description>
  </property>
  <property>
     <name>hbase.cluster.distributed</name>
     <value>true</value>
     <description>是否开启hbase的分布式集群模式</description>
  </property>

在这里插入图片描述
(3)进入到"hadoop-3.2.1/etc/hadoop/"路径下配置yarn-site.xml文件

cd ./hadoop-3.2.1/etc/hadoop/
vi ./yarn-site.xml
<!-- 以下涉及的简写: RM :ResourceManagerAM :ApplicationMaster NM :NodeManager -->
<property>
    <name>yarn.resourcemanager.address</name>
    <value>master:8032</value>
    <description>RM对客户端暴露的地址,客户端通过该地址向RM提交应用程序等</description>
</property>
<property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>master:8030</value>
    <description>RM对AM暴露的地址,AM通过地址想RM申请资源,释放资源等</description>
</property>
<property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>master:8031</value>
    <description>RM对NM暴露地址,NM通过该地址向RM汇报心跳,领取任务等</description>
</property>
<property>
    <name>yarn.resourcemanager.admin.address</name>
    <value>master:8033</value>
    <description>管理员可以通过该地址向RM发送管理命令等</description>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>master:8088</value>
    <description>RM对外暴露的web http地址,用户可通过该地址在浏览器中查看集群信息</description>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    <description>NodeManager上运行的附属服务。需配置成mapreduce_shuffle,才可运行MapReduce程序默认值:""</description>
</property>
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
    <description>指定resourcemanager的hostname为master</description>
</property>

在这里插入图片描述
(4)进入到"hadoop-3.2.1/etc/hadoop/"路径下配置mapred-site.xml文件

cd ./hadoop-3.2.1/etc/hadoop/
vi ./mapred-site.xml
<property>
    <name>mapred.job.tracker</name>
    <value>http://master:9001</value>
    <description>连接jobtrack服务器的配置项,默认不写是local,map数1,reduce数1</description>
</property>
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    <description>指的是使用yarn运行mapreduce程序</description>
</property>
<property>
    <name>mapreduce.jobhistory.address</name>
    <value>master:10020</value>
    <description>JobHistory用来记录已经finished(结束)的mapreduce运行日志,日志信息存放于HDFS目录中,默认情况下没有开启此功能</description>
  </property>
<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>master:19888</value>
    <description>mapreduce运行日志的web访问地址</description>
</property>

在这里插入图片描述
(5)进入到"hadoop-3.2.1/etc/hadoop/"路径下配置hadoop-env.sh文件,配置JDK路径,并加入如下代码,否则在启动的时候会提示没有root用户权限操作hdfs等。

cd ./hadoop-3.2.1/etc/hadoop/
vi ./hadoop-env.sh

export JAVA_HOME=/usr/local/jdk1.8.0_91/
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

在这里插入图片描述
在这里插入图片描述
(6)进入到"hadoop-3.2.1/etc/hadoop/"路径下配置yarn-env.sh文件,配置JDK路径。

cd ./hadoop-3.2.1/etc/hadoop/
vi ./yarn-env.sh

export JAVA_HOME=/usr/local/jdk1.8.0_91/

在这里插入图片描述
(7)进入到"hadoop-3.2.1/etc/hadoop/"路径下配置slaves。里面放的是其他两个节点的主机名。

cd ./hadoop-3.2.1/etc/hadoop/
vi ./slaves 

在这里插入图片描述
注意:以上配置文件配置完成后,利用远程复制命令,复制到其他两个节点上(这里要用到ssh免密链接设置,请查看另外一篇博文“linux下配置集群机器之间免密登录”后操作)。

scp -r /usr/local/hadoop-3.2.1 slev1:/usr/local
scp -r /usr/local/hadoop-3.2.1 slev2:/usr/local

在这里插入图片描述

4、启动hadoop-3.2.1并验证,浏览器中输入http://172.16.5.129:8088/cluster查看hadoop集群状态,如果出不来如下界面,则有可能是hadoop启动失败了,仔细查看日志,并且核对配置文件。

cd ./hadoop-3.2.1/sbin
./start-all.sh

在这里插入图片描述

总结

以上就是hadoop的全分布式安装过程,至此本人的一下三篇博客搭建了一个全分布式大数据环境:
hadoop-3.2.1全分布式安装教程
apache-zookeeper-3.6.2全分布式安装
hbase-2.3.2全分布式安装

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 要下载Hadoop-3.2.1.tar.gz,首先需要进入Hadoop官方网站或者其他可信的镜像站点。在网站的下载页面中,找到Hadoop-3.2.1版本的下载链接。 点击下载链接后,会弹出一个对话框,询问是否要保存该文件。选择保存,并选择一个本地存储位置。如果有多个镜像站点可供选择,可以根据下载速度和可靠性选择一个最适合自己的镜像站点。 下载完成后,可以检查文件的完整性,可以使用MD5或SHA校验哈希函数来验证下载文件的一致性。这是为了确保文件没有在传输过程中损坏或被篡改。 接下来,需要解压缩下载的tar.gz文件。可以使用命令行工具(例如:tar命令)或图形界面工具(例如:WinRAR)来进行解压缩。解压缩后,会获得一个文件夹,其中包含了Hadoop-3.2.1的所有文件和目录。 解压缩完成之后,可以根据自己的需要进行进一步的配置和安装。Hadoop的配置文件位于解压缩后的文件夹中的config目录下,可以根据具体情况进行修改。 最后,根据具体的操作系统和需求,可以启动Hadoop集群或单节点模式来运行Hadoop。可以使用命令行工具,运行特定的start脚本,以启动Hadoop。启动成功后,可以通过Web界面或命令行界面来管理和监控Hadoop集群的运行。 ### 回答2: 要下载hadoop-3.2.1.tar.gz,可以按照以下步骤进行: 1. 打开浏览器,进入hadoop官方网站(https://hadoop.apache.org/releases.html)。 2. 在网站上找到hadoop 3.2.1版本的下载链接,通常会是一个tar.gz压缩文件。 3. 点击下载链接,浏览器会开始下载hadoop-3.2.1.tar.gz文件。 4. 下载完成后,可以通过文件管理器进入下载目录,找到刚刚下载的hadoop-3.2.1.tar.gz文件。 5. 可以选择将hadoop-3.2.1.tar.gz文件移动到你希望存储hadoop的目录,比如/opt目录。 6. 打开终端,进入存储hadoop的目录。 7. 输入以下命令解压hadoop-3.2.1.tar.gz文件: ``` tar -xvf hadoop-3.2.1.tar.gz ``` 8. 解压完成后,会生成一个hadoop-3.2.1的目录,里面包含了hadoop的所有文件和文件夹。 9. 现在你可以开始配置和使用hadoop了,根据需要进行相应的操作。 注意: 下载过程可能会因网络速度和服务器负载而有所差异,请耐心等待下载完成。此外,确保你有足够的存储空间来存储hadoop-3.2.1.tar.gz文件和解压后的hadoop文件。 ### 回答3: 要下载hadoop-3.2.1.tar.gz,你可以按照以下步骤进行: 1. 首先,打开你喜欢的网络浏览器,并在搜索引擎中搜索“hadoop-3.2.1.tar.gz下载”。你将会看到多个下载来源可供选择。 2. 接下来,点击一个可靠的下载来源链接,例如官方网站或其他受信任的软件下载站点。 3. 在下载页面上,查找下载按钮或链接,通常标有“Download”或“下载”。点击这个按钮或链接。 4. 一旦你点击下载按钮,浏览器会开始下载hadoop-3.2.1.tar.gz文件。下载速度取决于你的网络连接质量和文件大小。 5. 下载完成后,你可以在浏览器的下载文件夹或你指定的下载目录中找到hadoop-3.2.1.tar.gz文件。 6. 最后,你可以解压缩该tar.gz文件,通常使用命令行或解压软件。 总之,下载hadoop-3.2.1.tar.gz只需按照上述步骤选择下载来源,并点击下载按钮完成文件下载。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

夜间沐水人

文章编写不易,一分钱也是爱。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值