大数据(hadoop-Mapreduce原理架构)

课程目标:

1:MapReduce的应用场景

2:MapReduce编程模型

3:MapReduce的架构

4:常见MapReduce应用场景

5:总结

MapReduce的定义

源自于Google的MapReduce论文
  发表于2004年12月
  Hadoop MapReduce是Google MapReduce克隆版
     
MapReduce特点
  易于编程
  良好的扩展性
  高容错性
  适合PB级以上海量数据的离线处理

MapReduce的特色—不擅长的方面

实时计算
    像MySQL一样,在毫秒级或者秒级内返回结果
流式计算
    MapReduce的输入数据集是静态的,不能动态变化
    MapReduce自身的设计特点决定了数据源必须是静态的
DAG计算
    多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出

MapReduce的实例一Wordcount

场景:有大量文件,里面存储了单词,且一个单词占一行

任务:如何统计每个单词出现的次数   

类似应用场景
    搜索引擎中,统计最流行的K个搜索词
    统计搜索词频率,帮助优化搜索词提示

     Case1:整个文件可以加载到内存中

     Case2:文件太大不能加载到内存中,但<word, count>可以存放到内存中;

     Case3:文件太大无法加载到内存中,且<word, count>也不行

     将问题范化为:有一批文件(规模为TB级或者PB级),如何统计这些文件中所有单词出现的次数

     方案:首先,分别统计每个文件中单词出现次数,然后累加不同文件中同一个单词出现次数

     典型的MapReduce过程
 

b2e6c76e072a81cb2dd2037e9643a887b8f.jpg

Input:一系列key/value对

用户提供两个函数实现:
    map(k,v)list(k1,v1)
    reduce(k1, list(v1))v2

(k1,v1) 是中间key/value结果对
Output:一系列(k2,v2)对

map(key,value):
//key : document name; value: text of document
for each word w in value :
             emit(w,1)

reduce (key,value): 
//key : a word; value : an iterator over counts
             result = 0
             for each count v in values :
             result += v
             emit(key,result)

MapReduce编程模型

MapReduce将作业的整个运行过程分为两个阶段:Map阶段和Reduce阶段

Map阶段由一定数量的Map Task组成
    输入数据格式解析:InputFormat
    输入数据处理:Mapper
    数据分组:Partitioner
Reduce阶段由一定数量的Reduce Task组成
    数据远程拷贝
    数据按照key排序
    数据处理:Reducer
    数据输出格式:OutputFormat
 

MapReduce编程模型一内部逻辑

12d768e0b599aa404c59fc869d7e3319e56.jpg

 

MapReduce编程模型一外部物理结构

d720fc42e763cc3a0ff90070ab513170bfd.jpg

 

MapReduce编程模型一InputFormat

文件分片
将分片数据解析成key/value对
    默认实现是TextInputFormat

TextInputFormat
    key是行在文件中的偏移量,value是行内容
 

MapReduce编程模型一Split与Block

Block
    HDFS中最小的数据存储单位
    默认是64MB或128M

Split
    MapReduce中最小的计算单元
    默认与Block一一对应

Block与Split
    Split与Block是对应关系是任意的,可由用户控制

 

MapReduce编程模型一InputFormat

01bc8983a10ab8e1517105cc20e2c3a4758.jpg

 

MapReduce编程模型一Combiner

d9be0e6782429965773239165578fa251ff.jpg

Combiner可做看local Reducer
    合并相同的key对应的value(Wordcount例子)
    通常与Reducer逻辑一样
好处
    减少Map Task输出数据量(磁盘IO)
    减少Reduce-Map网络传输数据量(网络IO)
如何正确使用
    结果可叠加
    SUM
 

MapReduce编程模型

Map阶段
    InputFormat(默认TextInputFormat)
    Mapper
    Combiner(local Reducer)
    Partitioner
Reduce阶段
    Reducer
    OutputFormat(默认TextOutputFormat)

MapReduce1.0架构

3824737b823dde6f0d98fe0682de0ea9cee.jpg


MapReduce(分布式计算框架)

c2cec1ed4aad9212bdeccfe71e637674b72.jpg

688b111fc75b25d0d4cbe7eff060052fe1f.jpg

 

MapReduce2.0架构

d2a3f973a1800f5f29733b7f0aafbf0e2c9.jpg

Client
    与MapReduce 1.0的Client类似,用户通过Client与YARN交互,提交MapReduce作业,查询作业运行状态,管理作业等。

MRAppMaster
    功能类似于 1.0中的JobTracker,但不负责资源管理;
    功能包括:任务划分、资源申请并将之二次分配个MapTask和Reduce Task、任务状态监控和容错。

MapReduce2.0运行流程

e66a5e5f514e53b1b8f80c83e7646c8a2c3.jpg

MapReduce2.0容错性

MRAppMaster容错性
    一旦运行失败,由YARN的ResourceManager负责重新启动,最多重启次数可由用户设置,默认是2次。一旦超过最高重启次数,则作业运行失败。
Map Task/Reduce Task
    Task周期性向MRAppMaster汇报心跳;
    一旦Task挂掉,则MRAppMaster将为之重新申请资源,并运行之。最多重新运行次数可由用户设置,默认4次。

MapReduce计算框架一数据本地性

什么是数据本地性( data locality)
    如果任务运行在它将处理的数据所在的节点,则称该任务具有“数据本地性”
    本地性可避免跨节点或机架数据传输,提高运行效率
数据本地性分类
    同节点(node-local)
    同机架(rack-local)
    其他(off-switch)
18dc15f5b061414bfa90db6e0bea9e0e01d.jpg

 

MapReduce计算框架一推测执行机制

作业完成时间取决于最慢的任务完成时间
    一个作业由若干个Map任务和Reduce任务构成
    因硬件老化、软件Bug等,某些任务可能运行非常慢

推测执行机制 就是为了解决上面的情形
    发现拖后腿的任务,比如某个任务运行速度远慢于任务平均速度
    为拖后腿任务启动一个备份任务,同时进行
    谁先运行完,则采用谁的结果

不能启用推测执行机制
    任务间存在严重的负载倾斜,如一个任务处理的数据远大于其他
    特殊任务,比如任务向数据库中写数据
 

常见MapReduce应用场景

简单的数据统计,比如网站pv、uv统计

搜索引擎建索引

海量数据查找,在海量数据中并行查找符合某个特征的数据

复杂数据分析算法实现,mahout基于MR实现的数据挖掘库
    聚类算法
    分类算法
    推荐算法
    图算法
 

总结

MapReduce基本原理

MapReduce编程模型

MapReduce架构

MapReduce任务调度器

MapReduce应用场景

 

 

 

 

 

转载于:https://my.oschina.net/u/3728166/blog/3044560

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值