Hadoop安装

1:解压目录&配置路径

2:配置分布式集群环境

需要修改 /usr/local/hadoop/etc/hadoop 中的5个配置文件。

slaves、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml【红颜色需要特别注意 和自己电脑保持一致】

workers:

此文件记录的是将要作为 Datanode 节点的名字。将 hadoop1,hadoop2主机名字加入进去,如果想让 hadoop1节点作为 Namenode的同时也作为 Datanode。

core-site.xml

<configuration>
        <property>
               <name>fs.defaultFS</name>
                <value>hdfs://hadoop1:9000</value> 
        </property>
        <property>
               <name>hadoop.tmp.dir</name>
                <value>file:/usr/local/hadoop-3.3.4/tmp</value>
                <description>Abase forother temporary directories.</description>
        </property>
</configuration>

hdfs-site.xml

这文件记录备份相关。dfs.replication 一般设为3,我们有俩个 slave 节点,因此可以将 dfs.replication 的值设为 3

<configuration>
        <property>
               <name>dfs.namenode.secondary.http-address</name>
                <value>hadoop1:50090</value>
        </property>
        <property>
               <name>dfs.replication</name>
                <value>3</value>
        </property>
        <property>
               <name>dfs.namenode.name.dir</name>
                <value>file:/usr/local/hadoop-3.3.4/tmp/dfs/name</value>
        </property>
        <property>
               <name>dfs.datanode.data.dir</name>
                <value>file:/usr/local/hadoop-3.3.4/tmp/dfs/data</value>
        </property>
</configuration>

mapred-site.xml

<configuration>
        <property>
               <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
               <name>mapreduce.jobhistory.address</name>
               <value>hadoop1:10020</value>
        </property>
        <property>
               <name>mapreduce.jobhistory.webapp.address</name>
               <value>hadoop1:19888</value>
        </property>
</configuration>

yarn-site.xml

<configuration>
        <property>
               <name>yarn.resourcemanager.hostname</name>
               <value>hadoop1</value>
        </property>
        <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
        </property>
</configuration>
 

3:配置好以后,将 master 节点上的 /usr/local/Hadoop 文件夹复制到剩余节点上。

scp -r /usr/local root@hadoop2:/use/local

用户名 IP【我做了映射】

4:启动hadoop

首次启动 Hadoop 需要将 master 节点格式化:

hdfs namenode -format # 首次运行需要执行初始化,之后不需要

start-all.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值