【Hadoop 02】企业级解决方案

1 小文件问题

问题描述

由于在HDFS中,每一个小文件在NameNode中都会占用150字节的内存空间,而且每个小文件都是一个Block,会产生一个InputSplit,这样就会产生一个Map任务,同时启动多个Map任务消耗性能,影响MapReduce执行效率。

解决方案

HDFS提供两种类型的容器,分别是SequenceFile和MapFile。

  • SequenceFile:将<key,value>对序列化到文件中。
  • MapFile:是排序后的SequenceFile,主要由两部分组成,分别是index和data;index作为文件的数据索引,主要记录了每个Record的key值,以及该Record在文件中的偏移位置。在MapFile被访问的时候,索引文件会被加载到内存,通过索引映射关系可迅速定位到指定Record所在文件位置,因此,相对SequenceFile而言,MapFile的检索效率是高效的,缺点是会消耗一部分内存来存储index数据。

2 数据倾斜问题

问题描述

需要统计的数据很集中,比如有一个文件,有1000W条数据,这里面的值主要都是数字(1,2,3,4,5,6,7,8,9,10),希望统计出来每个数字出现的次数,其中值为5的数据有910w条左右,剩下的9个数字一共只有90w条。

解决方案

把倾斜的数据打散

        1. 设置Reduce任务个数

job.setNumReduceTasks(Integer.parseInt(args[2]));

        2. 将数据打散

String key = words[0];
if ("5".equals(key)) {
 //把倾斜的key打散,分成10份
 key = "5" + "_" + random.nextInt(10);
}

3 YARN

 3.1 YARN架构分析

  • YARN主要负责集群资源管理和调度,支持主从架构,主节点最多可以有1个,从节点可以有多个
  • ResourceManager:主节点主要负责集群资源的分配和管理
  • NodeManager:从节点主要负责当前机器资源管理

  3.2 YARN资源管理模型

  • YARN主要管理内存和CPU这两种资源类型
  • NodeManager启动时,会向ResourceManager注册,注册信息中包含该节点可分配的CPU和内存总量
  • yarn.nodemanager.resource.memory-mb:单节点可分配的物理内存总量,默认是8MB*1024,即8G
  • yarn.nodemanager.resource.cpu-vcores:单节点可分配的虚拟CPU个数,默认是8

   3.3 YARN中的调度器

  • FIFO Scheduler:先进先出(first in, first out)调度策略
  • Capacity Scheduler:FIFO Scheduler的多队列版本
  • Fair Scheduler:多队列,多用户共享资源

 3.4 案例:YARN多资源队列配置和使用

需求描述

增加2个队列,一个是online队列,一个是offline队列,然后向offline队列中提交一个mapreduce任务,其中online队列里面运行实时任务,offline队列里面运行离线任务

解决方法

1. 修改etc/hadoop目录下的capacity-scheduler.xml配置文件

<property>
 <name>yarn.scheduler.capacity.root.queues</name>
 <value>default,online,offline</value>
 <description>
   The queues at the this level (root is the root queue).
 </description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.default.capacity</name>
 <value>70</value>
 <description>Default queue target capacity.</description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.online.capacity</name>
 <value>10</value>
 <description>Online queue target capacity.</description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.offline.capacity</name>
 <value>20</value>
 <description>Offline queue target capacity.</description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.default.maximum-capacity</name>
 <value>70</value>
 <description>
   The maximum capacity of the default queue.
 </description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.online.maximum-capacity</name>
 <value>10</value>
 <description>
   The maximum capacity of the online queue.
 </description>
</property>
<property>
 <name>yarn.scheduler.capacity.root.offline.maximum-capacity</name>
 <value>20</value>
 <description>
   The maximum capacity of the offline queue.
 </description>
</property>

该配置文件定义了三队列:default、online和offline。每个队列有一个目标容量(capacity)和最大容量(maximum-capacity)。

  • yarn.scheduler.capacity.root.queues:定义了根队列下的子队列,即default、online和offline队列。
  • yarn.scheduler.capacity.root.default.capacity:默认队列目标容量为70%。
  • yarn.scheduler.capacity.root.online.capacity:在线队列的标容量为10%。
  • yarn.scheduler.capacity.root.offline.capacity:离线队列的目标容量为20%。
  • yarn.scheduler.capacity.root.default.maximum-capacity:默认队列的最大容量70%。
  • yarn.scheduler.capacity.root.online.maximum-capacity:在线队列的最大容量为10%。
  • yarn.scheduler.capacity.root.offline.maximum-capacity:离线队的最大容量为20%。

这些配置项可以根据实际需求进行调整。它们决定每个队列可以使用的资源比例,以及队列间的优先级限制。通过合理配置队列的容量和最大容量,可以实现对同类型任务的资源分配和调度制。

2. 重启Hadoop

stop-all.sh
start-all.sh

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不菜不菜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值