Hadoop面试中的优化问题

Hadoop企业优化的主要问题:

数据倾斜

——频率倾斜:某一个时间段内某一个节点运行的次数太多

——大小的倾斜:不同节点处理的数据大小相差太多

—————使用combine进行数据的合并后处理

—————对数据的原始数据进行一个采样后,根据结果集将Task进行进一步的分区设定

Map和Reduce数设置不合理

——Map和Reduce的数量需要根据此时的任务数量来决定

Map运行时间太长,导致Reduce等待太久

小文件过多

大量不可分块的超大文件

Spill次数过多

——环形缓冲区达到设定的大小后数据溢写的过程

Merge次数过多

——Merge指的是Reduce从Map中读取数据的过程

常见问题的优化方式:

数据的输入:可以将MR任务前对小文件进行合并

Map阶段:①减少spill的次数;②减少Merge次数;③先进行Combine处理

Reduce阶段:①合理设置Map和Reduce次数;②设置Map和Reduce共存,调整slowstart.completedmaps参数;③规避使用Reduce;④合理设置Reduce读取数据后内存中buffer的大小;

输出阶段:①采用压缩格式进行输出;②使用SequenceFile二进制文件

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值