Sql优化(一) Merge Join vs. Hash Join vs. Nested Loop

原创文章,首发自本人个人博客站点,转载请务必注明出自http://www.jasongj.com



Nested Loop,Hash Join,Merge Join介绍

  • Nested Loop:
    对于被连接的数据子集较小的情况,Nested Loop是个较好的选择。Nested Loop就是扫描一个表(外表),每读到一条记录,就根据Join字段上的索引去另一张表(内表)里面查找,若Join字段上没有索引查询优化器一般就不会选择 Nested Loop。在Nested Loop中,内表(一般是带索引的大表)被外表(也叫“驱动表”,一般为小表——不紧相对其它表为小表,而且记录数的绝对值也较小,不要求有索引)驱动,外表返回的每一行都要在内表中检索找到与它匹配的行,因此整个查询返回的结果集不能太大(大于1 万不适合)。

  • Hash Join:
    Hash Join是做大数据集连接时的常用方式,优化器使用两个表中较小(相对较小)的表利用Join Key在内存中建立散列表,然后扫描较大的表并探测散列表,找出与Hash表匹配的行。
    这种方式适用于较小的表完全可以放于内存中的情况,这样总成本就是访问两个表的成本之和。但是在表很大的情况下并不能完全放入内存,这时优化器会将它分割成若干不同的分区,不能放入内存的部分就把该分区写入磁盘的临时段,此时要求有较大的临时段从而尽量提高I/O 的性能。它能够很好的工作于没有索引的大表和并行查询的环境中,并提供最好的性能。大多数人都说它是Join的重型升降机。Hash Join只能应用于等值连接(如WHERE A.COL3 = B.COL4),这是由Hash的特点决定的。

  • Merge Join:
    通常情况下Hash Join的效果都比排序合并连接要好,然而如果两表已经被排过序,在执行排序合并连接时不需要再排序了,这时Merge Join的性能会优于Hash Join。Merge join的操作通常分三步:
      1. 对连接的每个表做table access full;
      2. 对table access full的结果进行排序。
      3. 进行merge join对排序结果进行合并。
    在全表扫描比索引范围扫描再进行表访问更可取的情况下,Merge Join会比Nested Loop性能更佳。当表特别小或特别巨大的时候,实行全表访问可能会比索引范围扫描更有效。Merge Join的性能开销几乎都在前两步。Merge Join可适于于非等值Join(>,<,>=,<=,但是不包含!=,也即<>)

Nested Loop,Hash JOin,Merge Join对比

类别Nested LoopHash JoinMerge Join
使用条件任何条件等值连接(=)等值或非等值连接(>,<,=,>=,<=),‘<>’除外
相关资源CPU、磁盘I/O内存、临时空间内存、临时空间
特点当有高选择性索引或进行限制性搜索时效率比较高,能够快速返回第一次的搜索结果。当缺乏索引或者索引条件模糊时,Hash Join比Nested Loop有效。通常比Merge Join快。在数据仓库环境下,如果表的纪录数多,效率高。当缺乏索引或者索引条件模糊时,Merge Join比Nested Loop有效。非等值连接时,Merge Join比Hash Join更有效
缺点当索引丢失或者查询条件限制不够时,效率很低;当表的纪录数多时,效率低。为建立哈希表,需要大量内存。第一次的结果返回较慢。所有的表都需要排序。它为最优化的吞吐量而设计,并且在结果没有全部找到前不返回数据。

实验

本文所做实验均基于PostgreSQL 9.3.5平台

小于万条记录小表与大表Join

一张记录数1万以下的小表nbar.mse_test_test,一张大表165万条记录的大表nbar.nbar_test,大表上建有索引

Query 1:等值Join

select 
    count(*)
from 
    mse_test_test, 
    nbar_test 
where 
    mse_test_test.client_key = nbar_test.client_key;
Query 1 Test 1: 查询优化器自动选择Nested Loop,耗时784.845 ms

  如下图所示,执行器将小表mse_test_test作为外表(驱动表),对于其中的每条记录,通过大表(nbar_test)上的索引匹配相应记录。

Query 1 Test 2:强制使用Hash Join,耗时1731.836ms

  如下图所示,执行器选择一张表将其映射成散列表,再遍历另外一张表并从散列表中匹配相应记录。

Query 1 Test 3:强制使用Merge Join,耗时4956.768 ms

  如下图所示,执行器先分别对mse_test_test和nbar_test按client_key排序。其中mse_test_test使用快速排序,而nbar_test使用external merge排序,之后对二者进行Merge Join。

Query 1 总结 1 :

通过对比Query 1 Test 1Query 1 Test 2Query 1 Test 3可以看出Nested Loop适用于结果集很小(一般要求小于一万条),并且内表在Join字段上建有索引(这点非常非常非常重要)。

  • 在大表上创建聚簇索引
Query 1 Test 4:强制使用Merge Join,耗时1660.228 ms

  如下图所示,执行器通过聚簇索引对大表(nbar_test)排序,直接通过快排对无索引的小表(mse_test_test)排序,之后对二才进行Merge Join。

Query 1 总结 2:

通过对比Query 1 Test 3Query 1 Test 4可以看出,Merge Join的主要开销是排序开销,如果能通过建立聚簇索引(如果Query必须显示排序),可以极大提高Merge Join的性能。从这两个实验可以看出,创建聚簇索引后,查询时间从4956.768 ms缩减到了1815.238 ms。

  • 在两表上同时创建聚簇索引
Query 1 Test 5:强制使用Merge Join,耗时2575.498 ms。

  如下图所示,执行器通过聚簇索引对大表(nbar_test)和小表(mse_test_test)排序,之后对二才进行Merge Join。

Query 1 总结 3:

对比Query 1 Test 4Query 1 Test 5,可以看出二者唯一的不同在于对小表(mse_test_test)的访问方式不同,前者使用快排,后者因为聚簇索引的存在而使用Index Only Scan,在表数据量比较小的情况下前者比后者效率更高。由此可看出如果通过索引排序再查找相应的记录比直接在原记录上排序效率还低,则直接在原记录上排序后Merge Join效率更高。

  • 删除nbar_test上的索引

    Query 1 Test 6:强制使用Hash Join,耗时1815.238 ms

    时间与Query 1 Test 2几乎相等。

    如下图所示,与Query 1 Test 2相同,执行器选择一张表将其映射成散列表,再遍历另外一张表并从散列表中匹配相应记录。

Query 1 总结 4 :

通过对比Query 1 Test 2Query 1 Test 6可以看出Hash Join不要求表在Join字段上建立索引。

两大表Join

mse_test约100万条记录,nbar_test约165万条记录

Query 2:不等值Join

select 
    count(*)
from 
    mse_test, 
    nbar_test 
where 
    mse_test.client_key = nbar_test.client_key
and
    mse_test.client_key between 100000 and 300000;
Query 2 Test 1:强制使用Hash Join,失败

本次实验通过设置enable_hashjoin=trueenable_nestloop=falseenable_mergejoin=false来试图强制使用Hash Join,但是失败了。



  阅读下一篇【SQL优化(二) 快速计算Distinct Count


  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQL底层join实现有三种方式:broadcast hash join、shuffle hash join和sort merge join。其中broadcast hash join适用于小数据量的join操作,可以将一个小的表复制到所有的Executor上,然后和其他的表进行join操作;shuffle hash join适用于大数据量的join操作,可以通过Hash函数将数据分区,然后通过网络进行数据交换,再将分区的数据进行join操作;sort merge join适用于两个表都有序的情况下进行join操作,可以将两个表按照join字段进行排序,然后按顺序进行join操作。 ### 回答2: Spark SQL是Apache Spark的一个组件,提供了一个基于SQL的编程接口,支持分布式数据处理。其底层实现了三种Join操作,分别是Broadcast Hash Join、Shuffle Hash Join和Sort Merge Join。 1.Broadcast Hash Join是在一个表比较小的情况下使用的Join算法。具体流程是,将小表广播给集群中的每个Executor,然后对大表进行Join操作。该算法需要把小表数据拷贝到内存中,可能会导致OOM异常,因此需要在实际使用中谨慎选择。 2.Shuffle Hash Join适用于两个表都比较大的情况下。具体流程是,在两个表都进行Shuffle操作,将Join Key相同的数据放到同一个分区。然后将每个分区的数据交给一个Executor进行Join操作。该算法的缺点是Shuffle会增加网络开销以及I/O操作的负担,因此需要注意调整参数大小。 3.Sort Merge Join适用于两个表都比较大且Join Key有序的情况下。该算法的流程是,在两个表进行Sort操作,将Join Key相同的数据放到同一个分区。然后将每个分区的数据交给一个Executor进行Join操作。该算法的优点是Join Key有序,不需要进行Shuffle操作,因此可以避免Shuffle操作的网络损耗和I/O操作的负担。 综上所述,Spark SQL底层Join的实现使用了三种Join算法,Broadcast Hash Join适用于小表Join,Shuffle Hash Join适用于两个表都比较大的情况下,Sort Merge Join适用于两个表都比较大且Join Key有序的情况下。我们在使用时需要根据实际情况选择合适的Join算法,避免OOM和网络开销等问题。 ### 回答3: Spark SQL是一种针对结构化和半结构化数据处理的高性能分布式计算框架。在使用Spark SQL进行数据处理时,很多情况下需要对数据进行join操作。Spark SQLjoin操作有三种实现方式,分别是Broadcast Hash Join、Shuffle Hash Join和Sort Merge Join。 Broadcast Hash Join是一种在内存中进行的join操作,当一个表的大小可以运用内存进行分布并广播到所有节点时,可以采用Broadcast Hash Join。这种join的实现方式是先在driver端对较小的表进行哈希操作,然后将其哈希表广播到所有worker节点上,同时另外一个较大的表再进行哈希操作,将其切分成多个小表,然后将每个小表发到worker上去跟广播的哈希表进行join,最终将所有小表的join结果汇总即可。Broadcast Hash Join的优点是可以减少数据的运输,缩短查询时间。缺点是只能适用于对于较小表以及对于等值join场景,而且如果数据量过大,广播查询也会耗费大量的网络资源,无法解决内存不足的问题。 Shuffle Hash Join是一种使用网络进行数据传输的join操作方式。当一个表的大小无法运用内存进行分布并广播到所有节点时,可以采用Shuffle Hash Join。它的实现方式是将两张表的数据都进行哈希分区,将相同哈希值的分区数据放到同一个节点上,然后在每个节点进行join操作。不同节点之间进行数据交换,需要通过Shuffle进行数据传送。Shuffle Hash Join适用于较大的表,可以支持任何join,但效率较低,因为需要网络传输。 Sort Merge Join是一种对两个表进行排序后再进行join操作的方式。Sort Merge Join的实现方式是对两张表按照join key 进行排序,然后进行合并操作。当然这个过程支持Inner、Full、Left、Right的多种Join操作。Sort Merge Join的优点是适用于超大表的join操作,缺点是需要对两张表进行排序操作,代价较高,且仅适用于等值join,而且排序操作必须保证内存能够承受。 在Spark SQLJOIN操作中,Broadcast Hash Join适用于大表关联小表的情况;Shuffle Hash Join是对大表关联大表,或者把数据分散在集群节点上的表进行JOIN操作的时候的方法;Sort Merge Join通常用于数据量较大而无法全部载入内存的情况下进行JOIN操作。不同的JOIN操作应根据数据量以及具体的情况来选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值