如何基于MapReduce做Hadoop的优化的?

  1. HDFS 小文件影响

(1) 元数据层面:每个小文件都有一份元数据,其中包括文件路径、文件名、所有者、所属组、权限、创建时间等,这些信息都保存在namenode中。所以,小文件过多,会占据namenode服务器大量的内存,影响namenode的性能和使用寿命;
(2) 计算层面:默认情况下,MR会对每个小文件启动一个map任务计算,非常影响计算性能;同时也影响磁盘寻址时间。

  1. 数据输入小文件处理

合并小文件: 对小文件进行归档、自定义 Inputformat 将小文件存储成 SequenceFile 文件;
采用 CombineFileInputFormat 来作为输入,解决输入端大量小文件场景;
对于大量小文件 Job,可以开启JVM 重用

  1. Map阶段

增加环形缓冲区大小,由 100m 扩大到 220m;
增加环形缓冲区溢写的比例,由 80% 扩大到 90%;
减少对溢写文件的 merge(合并) 次数
不影响实际业务的前提下,采用 Combiner 提前合并,减少 IO

  1. Reduce阶段

合理设置 Map 和 Reduce 数:两个都不能设置太少,也不能设置太多。太少,会导致 Task 等待延长处理时间;太多,会导致 Map、Reduce 任务间竞争资源,造成处理超时等错误;
设置 Map、Reduce 共存:调整 slowstart.completedmaps 参数,使 Map 运行到一定程度后,Reduce 也开始运行,减少 Reduce 的等待时间
规避使用 Reduce,因为 Reduce 在用于连接数据集的时候将会产生大量的网络消耗
增加每个 Reduce 去 Map 中拿数据的并行数
集群性能可以的前提下,增加 Reduce 端存储数据内存的大小

  1. IO传输

采用数据压缩的方式,减少网络IO的时间;
使用 SequenceFile 二进制文件;

  1. 整体

Map Task 默认内存大小1G,可以增加 Map Task 内存大小为 4;
Reduce Task 默认内存大小1G,可以增加 Reduce Task 内存大小4-5g
可以增加 Map Taskcpu核数,增加 Reduce TaskCPU核数
增加每个 ContainerCPU 核数内存大小
调整每个 Map TaskReduce Task 最大重试次数

  1. 压缩
    在这里插入图片描述
    压缩方式为Snappy,特点速度快,缺点无法切分
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值