hive中的桶表,以及高效的join方式

hive中的join策略 大概可以分为三种

这里写图片描述

前面2种的话都是经常会用到,说下第三种 桶 join

桶(SMB)

物理上,每个桶就是表(或分区)目录里的一个文件。
smb的设计是为了解决大表和大表之间的join的。简单的说下她的思想:大表化成小表,map side join 解决。经典的分而治之的思想。

对一个表或者一个分区,可以将其划分为更细的数据块,桶。在hive中,分桶的方式采取的是:对列的值进行hash除以桶的数量取余 ;

为什么要对数据进行分桶:

  • 桶给表加上了额外的结构,在进行某些查询的时候可以利用这个结构进行高效的查询;例如: 对于两个数据表,某两列都做了桶划分,可以使用map端的join高效的完成join(桶和桶之间的join,大大减少了join的次数)。
  • 对于数据取样更加高效

创建桶划分的表

CREATE TABLE bucketed_user (id INT) name STRING) 
CLUSTERED BY (id) INTO 4 BUCKETS; 

用CLUSTERED BY (id) INTO 4 BUCKETS 分别指定需要进行分桶的列和需要分桶的数量;

在这里,我们使用用户ID来确定如何划分桶(Hive使用对值进行哈希并将结果除 以桶的个数取余数。这样,任何一桶里都会有一个随机的用户集合(PS:其实也能说是随机,不是吗?)。
对于map端连接的情况,两个表以相同方式划分桶。处理左边表内某个桶的 mapper知道右边表内相匹配的行在对应的桶内。因此,mapper只需要获取那个桶 (这只是右边表内存储数据的一小部分)即可进行连接。这一优化方法并不一定要求 两个表必须桶的个数相同,两个表的桶个数是倍数关系也可以。

桶中的数据可以根据一个或多个列另外进行排序。由于这样对每个桶的连接变成了高效的归并排序(merge-sort), 因此可以进一步提升map端连接的效率。以下语法声明一个表使其使用排序桶:

CREATE TABLE bucketed_users (id INT, name STRING) 
CLUSTERED BY (id) SORTED BY (id ASC) INTO 4 BUCKETS;

使用tips:
两个表join的时候,小表不足以放到内存中,但是又想用map side join这个时候就要用到bucket Map join。其方法是两个join表在join key上都做hash bucket,并且把你打算复制的那个(相对)小表的bucket数设置为大表的倍数。这样数据就会按照join key做hash bucket。小表依然复制到所有节点,Map join的时候,小表的每一组bucket加载成hashtable,与对应的一个大表bucket做局部join,这样每次只需要加载部分hashtable就可以了。

ps:map side join其实也是有局限性的。他要求从表的数据量较小;从表:left join的右表,right join 的左表。

bucket map join
set Hive.optimize.bucketMapjoin = true;
select /*+Mapjoin(a) */count(*)
from Map_join_test a
join Map_join_test b on a.id = b.id;

我们如何保证表中的数据都划分成桶了呢?把在Hive外生成的数据加载到划分成 桶的表中,当然是可以的。其实让Hive来划分桶更容易。

对于已存在的表

Hive并不检查数据文件中的桶是否和表定义中的桶一致(无论是对于桶 的数量或用于划分桶的列)。如果两者不匹配,在査询时可能会碰到错 误或未定义的结果。因此,建议让Hive来进行划分桶的操作。
相关的操作:
要向分桶表中填充成员,需要将 hive.enforce.bucketing 属性设置为 true。①这 样,Hive 就知道用表定义中声明的数量来创建桶。然后使用 INSERT 命令即可。需要注意的是: clustered by和sorted by不会影响数据的导入,这意味着,用户必须自己负责数据如何如何导入,包括数据的分桶和排序。
‘set hive.enforce.bucketing = true’ 可以自动控制上一轮reduce的数量从而适配bucket的个数,当然,用户也可以自主设置mapred.reduce.tasks去适配bucket个数,推荐使用’set hive.enforce.bucketing = true’

取样
SELECT * FROM users 
TABLESAMPLE(BUCKET 1 OUT OF 4 ON rand()); 

一个完整的例子:

创建表

1   create table student(id INT, age INT, name STRING)
2   partitioned by(stat_date STRING)
3   clustered by(id) sorted by(age) into 2 buckets
4   row format delimited fields terminated by ',';
5    
6   create table student1(id INT, age INT, name STRING)
7   partitioned by(stat_date STRING)
8   clustered by(id) sorted by(age) into 2 buckets
9   row format delimited fields terminated by ',';
设置参数
set hive.enforce.bucketing = true;  
插入数据
insert overwrite table student1 partition(stat_date="20120802")
select id,age,name where stat_date="20120802" sort by age;

疑问: 插入的数据没有按照age 排序,在桶表中会怎么表现,还是高效的merge-sort模型吗?
用load data的方式增加进去的方式,不会按照建表的时候制定的排序字段进行排序,如果是insert 的方式进行数据的插入,是会按照建表的时候制定的字段进行排序的。
注意
ps:想要使用两张桶表进行join的时候,两个表进行交叉的字段必须是唯一的,不满足这个条件join出来的结果是错的。

抽样
hive> select * from student1 tablesample(bucket 1 out of 2 on id);

Total MapReduce jobs = 1
Launching Job 1 out of 1
.......
OK
4       18      mac     20120802
2       21      ljz     20120802
6       23      symbian 20120802
Time taken: 20.608 seconds

注:tablesample是抽样语句,语法:TABLESAMPLE(BUCKET x OUT OF y)
y必须是table总bucket数的倍数或者因子。hive根据y的大小,决定抽样的比例。例如,table总共分了64份,当y=32时,抽取(64/32=)2个bucket的数据,当y=128时,抽取(64/128=)1/2个bucket的数据。x表示从哪个bucket开始抽取。例如,table总bucket数为32,tablesample(bucket 3 out of 16),表示总共抽取(32/16=)2个bucket的数据,分别为第3个bucket和第(3+16=)19个bucket的数据。

join操作的执行原理

这里写图片描述

  • 3
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
### 回答1: 在Hive,如果要将一个大与一个小进行join,可以考虑以下两种方式: 1. Map-join:将小加载到内存,然后将大与内存的小进行join。这种方式的优点是可以极大地提高join的效率,缺点是需要足够的内存来存放小。 2. Broadcast-join:将小直接广播到每个map任务,然后将大与每个map任务的小进行join。这种方式的优点是不需要过多的内存,适用于小较小时的情况。缺点是需要额外的网络传输开销。 在Hive,可以使用以下语句实现Map-join: ``` set hive.auto.convert.join=true; set hive.mapjoin.smalltable.filesize=25000000; //设置小大小 SELECT /*+ MAPJOIN(smalltable) */ large_table.*, small_table.* FROM large_table JOIN small_table ON (large_table.key = small_table.key); ``` 可以使用以下语句实现Broadcast-join: ``` set hive.auto.convert.join=true; set hive.auto.convert.join.noconditionaltask=true; SELECT /*+ BROADCASTJOIN(smalltable) */ large_table.*, small_table.* FROM large_table JOIN small_table ON (large_table.key = small_table.key); ``` ### 回答2: 在Hive,大与小的联接操作需要进行一些特别的考虑。首先,大与小的大小差异会影响到性能和效率。由于大通常包含大量的据,而小相对较小,因此,联接操作时需要将小加载到内存,以避免频繁的磁盘读取。这可以通过将小设置为Hive的Map Join进行优化。 Map Join是一种在内存进行的联接操作,它将小缓存到节点的内存,并在联接时直接在内存进行操作,从而大大减少了磁盘I/O操作,提高了性能。要使用Map Join,可以使用HiveQL的"mapjoin"关键字来启用此功能。 但是,应注意的是,由于内存有限,只有小可以完全加载到内存,因此只有当小的大小适合全部加载到内存时才适合使用Map Join。大则没有这个限制。 此外,在进行大与小的联接操作时,还可以考虑使用特定的联接算法来提高性能,例如,使用哈希联接(Hash Join)来减少I/O操作,或者使用排序联接(Sort Merge Join)来加快排序操作。 最后,对于Hive与小的联接操作,还可以通过对据进行分区或者使用分技术来提高性能。通过分区将大和小划分为更小的块,可以减少联接操作需要处理的据量。而分则可以根据某个列的哈希值将据分布到不同的,从而更高效地进行联接操作。 总结起来,Hive与小的联接操作需要考虑优化性能和效率的因素,例如使用Map Join、选择适当的联接算法、采用分区或分技术等。 ### 回答3: 在Hive,进行大和小的连接操作通常有两种方式:MapJoin(映射连接)和ReduceJoin(归并连接)。 1. MapJoin:当小可以全部存放在内存时,使用MapJoin可以将小加载到内存,并将其构建为一个哈希。随后,对大进行扫描,将符合连接条件的记录通过哈希进行匹配,以获取结果。MapJoin的优点是速度快、简单,并且节省了磁盘IO的开销。然而,由于小需要完全加载到内存,可能会导致内存资源紧张,且对于大型据集来说可能并不适用。 2. ReduceJoin:当无法将小全部加载到内存时,就需要使用ReduceJoin。ReduceJoin将大和小根据连接字段进行排序,然后按照连接字段进行分区。在后续的reduce阶段,将同一个连接字段的记录发送到同一个reduce任务,然后通过遍历大和小方式进行匹配,最终得到结果。ReduceJoin的优点是适用于大型据集,并且不需要将整个小加载到内存,避免了内存资源的浪费。然而,ReduceJoin的缺点是耗时较长,因为需要进行排序和分区操作,并且需要额外的磁盘IO。 总之,对于Hive的大和小连接操作,根据实际情况选择合适的连接方式,可以提高查询的效率和性能。如果小可以全部加载到内存,使用MapJoin可以获得更快的结果;如果小不能完全加载到内存,则可以使用ReduceJoin来处理大规模据集。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值