MapReduce实现SQL的操作原理

本来想讲一下hive的一条SQL怎么转换成MapReduce的,但是想了一下还是先讲讲一条SQL语句怎么用MapReduce来执行

join的实现原理

select ply.policy_date,sale.ply_sale_name from ply_base_info ply join ply_sale sale on ply.policy_no=sale.policy_no
 
 
  • 1

在map的输出value中为不同表的数据打上tag标记,在reduce阶段根据tag判断数据来源。MapReduce的过程如下
这里写图片描述

Group By的实现原理

select policy_date,policy_type,count(1) from ply_base_info
 
 
  • 1

将GroupBy的字段组合为map的输出key值,利用MapReduce的排序,在reduce阶段保存LastKey区分不同的key。MapReduce的过程如下
这里写图片描述

Distinct的实现原理

select policy_date,count(distinct policy_type) from ply_base_info
 
 
  • 1

当只有一个distinct字段时,如果不考虑Map阶段的Hash GroupBy,只需要将GroupBy字段和Distinct字段组合为map输出key,利用mapreduce的排序,同时将GroupBy字段作为reduce的key,在reduce阶段保存LastKey即可完成去重
这里写图片描述

如果有多个distinct字段呢,如下面的SQL

select policy_date,count(distinct policy_type),count(distinct channel) from ply_base_info
 
 
  • 1

实现方式有两种:
(1)如果仍然按照上面一个distinct字段的方法,即下图这种实现方式,无法跟据policy_type和channel分别排序,也就无法通过LastKey去重,仍然需要在reduce阶段在内存中通过Hash去重
这里写图片描述

(2)第二种实现方式,可以对所有的distinct字段编号,每行数据生成n行数据,那么相同字段就会分别排序,这时只需要在reduce阶段记录LastKey即可去重。
这种实现方式很好的利用了MapReduce的排序,节省了reduce阶段去重的内存消耗,但是缺点是增加了shuffle的数据量。
需要注意的是,在生成reduce value时,除第一个distinct字段所在行需要保留value值,其余distinct数据行value字段均可为空。
这里写图片描述

url:https://tech.meituan.com/hive-sql-to-mapreduce.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MapReduce实现join操作通常有两种方式:Reduce-side join和Map-side join。 1. Reduce-side join: Reduce-side join是最常用的实现方式。它的基本思想是将两个需要join的表分别映射为(key, value)的形式,其key为需要join的字段,value则包含该字段以及其他需要输出的字段。然后将两个表的数据都输入到Map函数,在Map函数对两个表的数据进行标记,并将需要join的字段作为输出的key。在Reduce函数,对相同的key进行合并,得到最终的输出结果。 下面是一个示例的Reduce-side join实现: Map函数: ``` public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); String[] fields = line.split(","); String joinKey = fields[0]; String table = fields[1]; // 表名 String data = fields[2]; // 数据 Text outputKey = new Text(joinKey); Text outputValue = new Text(table + ":" + data); context.write(outputKey, outputValue); } ``` Reduce函数: ``` public void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException { List<String> table1Data = new ArrayList<String>(); List<String> table2Data = new ArrayList<String>(); for (Text value : values) { String[] fields = value.toString().split(":"); if (fields[0].equals("table1")) { table1Data.add(fields[1]); } else if (fields[0].equals("table2")) { table2Data.add(fields[1]); } } for (String data1 : table1Data) { for (String data2 : table2Data) { context.write(key, new Text(data1 + "," + data2)); } } } ``` 2. Map-side join: Map-side join是一种更加高效的实现方式,它的基本思想是将一个表的数据缓存到内存,然后在Map函数将另一个表的数据与缓存的数据进行join。需要注意的是,Map-side join只适用于小表与大表之间的join操作,因为需要将小表的数据全部缓存到内存。 下面是一个示例的Map-side join实现: Map函数: ``` public void setup(Context context) throws IOException, InterruptedException { // 读取小表的数据并缓存到内存 BufferedReader br = new BufferedReader(new FileReader("table1.csv")); String line; while ((line = br.readLine()) != null) { String[] fields = line.split(","); String joinKey = fields[0]; String data = fields[1] + "," + fields[2]; table1Data.put(joinKey, data); } br.close(); } public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); String[] fields = line.split(","); String joinKey = fields[0]; String data = fields[1] + "," + fields[2]; if (table1Data.containsKey(joinKey)) { String table1Data = table1Data.get(joinKey); context.write(new Text(joinKey), new Text(table1Data + "," + data)); } } ``` 需要注意的是,Map-side join需要提前将小表的数据缓存到内存,因此需要在Map函数之前执行setup函数。同时,为了提高效率,通常使用HashMap等数据结构来缓存小表的数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值