hadoop3相关配置

本文详细介绍了Hadoop集群的部署步骤,包括主机名与IP映射、免密设置、Java环境配置、Hadoop安装及配置,涵盖了core-site.xml、hdfs-site.xml、mapreduce-site.xml和yarn-site.xml等关键配置文件。
摘要由CSDN通过智能技术生成

一、hadoop部署

masterslave1slave2
namenode
secondarynamenode
datanode
resourcemanager
nodemanager
jobhistory

二、相关设置

1、主机名与ip映射:hosts文件

验证:ping master,ping slave1,ping slave2

hosts文件要传送至slave1,slave2。思考原因?(让slave1和slave2可以通过主机名ping通对方)

2、免密

与之前默认部署区别,“老大”部署位置要留意,由老大带动一群小弟,老大对小弟要有免密权限。

之前免密设置:master->master,master->slave1,master->slave2

现最好设置:master,slave1,slave2之间相互免密

master->master,master->slave1,master->slave2

slave1->master,master->slave1,master->slave2

slave2->master,master->slave1,master->slave2

3、java环境支持

master,slave1,slave2,环境变量/etc/profile设置

验证:java -version,javac

slave1,slave2可传送,并验证。

4、hadoop安装

先在master中解压安装,并设置环境变量,然后验证。

最后根据部署要求进行相关配置设置。然后分发给slave1,slave2。在master(namenode)中进行格式化。

验证:启动验证。(注意启动位置)

master中启动:start-dfs.sh。namenode部署位置

单节点启动命令,如:hdfs  --daemon  start  namenode

slave2中启动:start-yarn.sh。resourcemanager部署位置

slave1中启动历史服务器。jobhistory部署位置

淘汰的命令:mr-jobhistory-daemon.sh start historyserver

mapred --daemon start historyserver

三、相关配置

在hadoop安装目录下依次创建hadoopDatas/tempDatas,hadoopDatas/namenodesDatas,hadoopDatas/datanodeDatas,hadoopDatas/dfs/nn/edits,hadoopDatas/dfs/snn/name,hadoopDatas/dfs/nn/snn/edits

1、hadoop-env.sh配置。

export HDFS_NAMENODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export HDFS_DATANODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

export JAVA_HOME=/app/jdk1.8   java家目录位置

2、works

master

slave1

slave2

3、core-site.xml

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:9820</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/app/hadoop3.1/hadoopDatas/tempDatas</value>

</property>

4、hdfs-site.xml

<property>

<name>dfs.namenode.name.dir</name>

<value>/app/hadoop3.1/hadoopDatas/namenodeDatas</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/app/hadoop3.1/hadoopDatas/datanodeDatas</value>

</property>

<property>

<name>dfs.namenode.edits.dir</name>

<value>/app/hadoop3.1/hadoopDatas/dfs/nn/edits</value>

</property>

<property>

<name>dfs.namenode.checkpoint.dir</name>

<value>/app/hadoop3.1/hadoopDatas/dfs/snn/name</value>

</property>

<property>

<name>dfs.namenode.checkpoint.edits.dir</name>

<value>/app/hadoop3.1/hadoopDatas/dfs/nn/snn/edits</value>

</property>

<property>

<name>dfs.replication</name>     副本数

<value>3</value>

</property>

<property>

#secondarynamenode 节点

<name>dfs.namenode.secondary.http-address</name>

<value>slave1</value>

</property>

5、mapreduce-site.xml

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>slave2:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>slave2:19888</value>

</property>

6.yarn-site.xml

<property>

<name>yarn.resourcemanager.hostname</name>

<value>slave3</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值