大数据-Hadoop-MapReduce (一) 第一性原理

Hadoop-MapReduce的第一性原理

一句话理解: 在hdfs的基础上,可以把超过PB级别的日志文件(一般为文本文件),以Map的方式逐行处理形成 Map<A,1>
Map<A,2> Map<B,1> 经过非常的牛B的Shuffer算法按key形成集合,
再将集合进行Reduce运算的东东.

MapReduce经典原理图(WordCount).单词计算



如图所示,

1.出现文本 input

2.逐行分解
3.Mapper运算为 <key,value>
4.牛B的shuffer把这些Map按key排序成了 一堆相同Key的集合.
5.对这些集合进行Reduce计算

转载请注明出处,谢谢!



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值