搭建hadoop集群(hdfs和yarn)

准备三台虚拟机。
本文中ip分别设置为192.168.137.101、192.168.137.102、192.168.137.103.
步骤1-4使用root用户,步骤5及以后使用hadoop用户。
1、配置主机名和域名,开通防火墙端口

#修改主机名
hostnamectl set-hostname hadoop01  #第一台
hostnamectl set-hostname hadoop02  #第二台
hostnamectl set-hostname hadoop03  #第三台
#重启虚拟机
init 6

#配置域名(三台均配置,配置内容相同)
vim /etc/hosts
192.168.137.101 hadoop01
192.168.137.102 hadoop02
192.168.137.103 hadoop03

#开通hadoop01的端口——只操作hadoop01即可
firewall-cmd --zone=public --add-port=9870/tcp --permanent
firewall-cmd --zone=public --add-port=8020/tcp --permanent
firewall-cmd --zone=public --add-port=9864/tcp --permanent  #另外两台机器也可以开下9864端口
firewall-cmd --zone=public --add-port=8088/tcp --permanent
firewall-cmd --zone=public --add-port=8031/tcp --permanent
firewall-cmd --zone=public --add-port=8042/tcp --permanent  #另外两台机器也可以开下8042端口
firewall-cmd --reload

2、创建用户和用户组(3台均配置)

#创建hadoop用户组
groupadd hadoop
#创建hadoop用户,并归属于hadoop用户组
useradd -m -g hadoop hadoop
#设置hadoop用户密码
passwd hadoop

3、创建环境搭建目录,并设置权限给hadoop用户(3台均配置)

mkdir /data
chown -R hadoop:hadoop /data
#后续所有操作均使用hadoop用户
su - hadoop

4、时钟同步(3台均配置)

yum -y install ntp
systemctl enable ntpd
systemctl start ntpd
timedatectl set-timezone Asia/Shanghai
ntpdate -u time.nist.gov
date

5、ssh免密登录(3台均配置)

cd /home/hadoop/.ssh
ssh-keygen -t rsa -C "邮箱"
#输入3次回车
#拷贝当前机器ssh公钥信息至另外两台虚拟机
ssh-copy-id hadoop01 #hadoop01需要拷贝至自己机器,不然hdfs-start.sh报错
ssh-copy-id hadoop02
ssh-copy-id hadoop03

6、安装jdk(3台均配置)

cd /data
#上传jdk-8u341-linux-x64.tar.gz
tar -zxvf jdk-8u341-linux-x64.tar.gz
vim ~/.bash_profile
#在文件结尾追加以下内容
export JAVA_HOME=/data/jdk1.8.0_341
export PATH=$JAVA_HOME/bin:$PATH
#:wq 保存退出
source ~/.bash_profile
java -version

在这里插入图片描述
7、上传hadoop安装包并解压(3台均配置)

cd /data
#上传hadoop-3.3.6.tar.gz
tar -zxvf hadoop-3.3.6.tar.gz

8、配置文件修改(3台均配置)
(1)hadoop配置文件

cd /data/hadoop-3.3.6/etc/hadoop
vim workers
#输入以下内容
hadoop01
hadoop02
hadoop03

vim hadoop-env.sh
#编辑以下内容
export JAVA_HOME=/data/jdk1.8.0_341
export HADOOP_HOME=/data/hadoop-3.3.6
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HADOOP_LOG_DIR=${HADOOP_HOME}/logs

vim core-site.xml
#添加以下内容
#hadoop01节点为NameNode节点,DataNode与NameNode的8020端口通讯
#io操作文件缓冲区大小为131072bit
<configuration>
   <property>
       <name>fs.defaultFS</name>
       <value>hdfs://hadoop01:8020</value>
   </property>
   <property>
       <name>io.file.buffer.size</name>
       <value>131072</value>
   </property>
</configuration>

(2)hdfs配置文件

vim hdfs-site.xml
#添加以下内容
#dfs.datanode.data.dir.perm——hdfs文件系统默认创建文件权限设置
#dfs.namenode.name.dir——NameNode元数据的存储位置
#dfs.namenode.hosts——NameNode运行哪些节点的DataNode连接
#dfs.blocksize——hdfs默认大小256MB
#dfs.namenode.handler.count——namenode处理的开发线程数
#dfs.datanode.data.dir——从节点datanode的数据存储目录
<configuration>
    <property>
	      <name>dfs.datanode.data.dir.perm</name>
	      <value>700</value>
    </property>
    <property>
          <name>dfs.namenode.name.dir</name>
          <value>/data/nn</value>
    </property>
    <property>
          <name>dfs.namenode.hosts</name>
          <value>hadoop01,hadoop02,hadoop03</value>
    </property>
    <property>
          <name>dfs.blocksize</name>
          <value>268435456</value>
    </property>
    <property>
          <name>dfs.namenode.handler.count</name>
          <value>100</value>
    </property>
    <property>
          <name>dfs.datanode.data.dir</name>
          <value>/data/dn</value>
    </property>
</configuration>

(3)yarn配置文件
vim yarn-site.xml

<configuration>  
  <property>
    <name>yarn.log.server.url</name>
    <value>http://hadoop01:19888/jobhistory/logs</value>
    <description>历史服务器路径</description>
  </property>
  
  <property>
    <name>yarn.web-proxy.address</name>
    <value>hadoop01:8089</value>
    <description>代理服务器主机和端口</description>
  </property>
  
  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
    <description>开始日志聚合</description>
  </property>
  <property>
    <name>yarn.nodemanager.remote-app-log-dir</name>
    <value>/tmp/logs</value>
    <description>程序日志HDFS的存储路径</description>
  </property>
  
  <!-- Site specific YARN configuration properties -->
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop01</value>
    <description>ResoucesManager的所在节点</description>
  </property>
  
  <property>
    <name>yarn.resourcemanager.scheduler.class</name>
    <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
    <description>选择公平调度器</description>
  </property>
  
  <!-- 是否将对容器实施物理内存限制 -->
  <property>
    <name>yarn.nodemanager.pmem-check-enabled</name>
    <value>false</value>
  </property>
   
  <!-- 是否将对容器实施虚拟内存限制 -->
  <property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
  </property>
  
  <property>
    <name>yarn.nodemanager.local-dirs</name>
    <value>/data/nm-local</value>
    <description>NodeManager中间数据本地存储路径</description>
  </property>
  
  <property>
    <name>yarn.nodemanager.log-dirs</name>
    <value>/data/nm-log</value>
    <description>NodeManager数据日志本地存储路径</description>
  </property>
  
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    <description>为Mapreduce程序开启Shuffle服务</description>
  </property>
  
  <!-- 设置yarn历史日志保存时间 7天 -->
  <property>
    <name>yarn.nodemanager.log.retain-seconds</name>
    <value>302400</value>
    <description>Default time (in seconds) to retain log files on the NodeManager Only applicable if log-aggregation is disabled.</description>
  </property>
</configuration>

vim mapred-site.xml

<configuration>
  <!-- 设置MR程序默认运行模式,yarn集群模式,local本地模式 -->
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
   
  <!-- MR程序历史服务地址 -->
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>hadoop01:10020</value>
  </property>
   
  <!-- MR程序历史服务web端地址 -->
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>hadoop01:19888</value>
  </property>
   
  <!-- yarn环境变量 -->
  <property>
    <name>yarn.app.mapreduce.am.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  </property>
   
  <!-- map环境变量 -->
  <property>
    <name>mapreduce.map.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  </property>
   
  <!-- reduce环境变量 -->
  <property>
    <name>mapreduce.reduce.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  </property>
</configuration>

9、配置环境变量(3台均配置)

vim ~/.bash_profile
export HADOOP_HOME=/data/hadoop-3.3.6
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH

source ~/.bash_profile

在这里插入图片描述
10、创建hdfs存储文件路径

#创建NameNode文件目录(只需在hadoop01上创建)
mkdir -p /data/nn
#创建DataNode文件目录(3台均需创建)
mkdir -p /data/dn

11、初始并启动hdfs和yarn集群(只需在hadoop01上操作)
(1)初始化

#格式化NameNode
hadoop namenode -format

在这里插入图片描述
(2)启动集群

#启动hdfs集群
start-dfs.sh
#启动yarn集群
start-yarn.sh

在这里插入图片描述
(3)验证

#验证
#hadoop01有NameNode\SecondaryNameNode\DataNode\ResourceManager\NodeManager\WebAppProxyServer进程
#hadoop02和hadoop03有DataNode\NodeManager进程
jps

在这里插入图片描述

访问 http://192.168.137.101:9870/dfshealth.html#tab-datanode
在这里插入图片描述

访问 http://192.168.137.101:8088/cluster/nodes
在这里插入图片描述

在这里插入图片描述
12、关闭hdfs集群和yarn集群

#一键关闭hdfs集群
stop-dfs.sh
#一键关闭yarn集群
stop-yarn.sh
  • 8
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
配置Hadoop HDFSYARN集群涉及到几个重要的配置文件: 1. hdfs-site.xml:这个文件于配置HDFS相关的参数,如数据大小、副本数量、NameNode和Node的存储路径等。示例配置```xml <configuration> <!-- 设置数据块大小为128MB --> <property> <name>dfs.blocksize</name> <value>134217728</value> </property> <!-- 设置副本数量为3 --> <property> <name>dfs.replication</name> <value>3</value> </property> <!-- 设置NameNode的存储路径 --> <property> <name>dfs.namenode.name.dir</name> <value>/path/to/namenode/directory</value> </property> <!--DataNode的存储路径 --> <property> <name>dfs.datanode.data.dir</name> <value>/path/to/datanode/directory</value> </property> </configuration> ``` 2. yarn-site.xml:这个文件用于配置YARN相关的参数,如ResourceManager和NodeManager的内存大小、日志路径等。示例配置: ```xml <configuration> <!-- 设置ResourceManager的内存大小为4GB --> <property> <name>yarn.resourcemanager.memory.mb</name> <value>4096</value> </property> <!-- 设置NodeManager的内存大小为2GB --> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>2048</value> </property> <!-- 设置日志路径 --> <property> <name>yarn.nodemanager.log-dirs</name> <value>/path/to/nodemanager/logs</value> </property> <!-- 设置YARN应用程序历史服务器的地址 --> <property> <name>yarn.timeline-service.address</name> <value>hostname:port</value> </property> </configuration> ``` 3. core-site.xml:这个文件用于配置Hadoop的核心参数,如HDFS的默认文件系统、YARN的默认资源管理器地址等。示例配置: ```xml <configuration> <!-- 设置HDFS的默认文件系统为hdfs://namenode:port --> <property> <name>fs.defaultFS</name> <value>hdfs://namenode:8020</value> </property> <!-- 设置YARN的默认资源管理器地址为resourcemanager:port --> <property> <name>yarn.resourcemanager.address</name> <value>resourcemanager:8032</value> </property> </configuration> ``` 这只是配置文件的基本示例,实际配置会根据你的集群规模和需求而有所不同。在配置文件中,你需要根据你的环境和需求修改相应的参数值。此外,还需要确保集群中所有节点上的配置文件保持一致。 配置完成后,将修改后的配置文件分发到集群中所有节点上,并重启HDFSYARN服务,使配置生效。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值