hive优化-count(distinct)

本文介绍了在Hive中处理COUNT(DISTINCT)操作时可能遇到的数据倾斜问题,并提供了两种优化方案:一是通过分组减少单一reducer的压力;二是利用RAND()函数结合GROUP BY实现更均匀的数据分布。
摘要由CSDN通过智能技术生成

问题描述

COUNT(DISTINCT xxx)在hive中很容易造成数据倾斜。针对这一情况,网上已有很多优化方法,这里不再赘述。
但有时,“数据倾斜”又几乎是必然的。我们来举个例子:

假设表detail_sdk_session中记录了访问某网站M的客户端会话信息,即:如果用户A打开app客户端,则会产生一条会话信息记录在该表中,该表的粒度为“一次”会话,其中每次会话都记录了用户的唯一标示uuid,uuid是一个很长的字符串,假定其长度为64位。现在的需求是:每天统计当月的活用用户数——“月活跃用户数”(当月访问过app就为活跃用户)。我们以2016年1月为例进行说明,now表示当前日期。
最简单的方法

这个问题逻辑上很简单,SQL也很容易写出来,例如:

SELECT
  COUNT(DISTINCT uuid)
FROM detail_sdk_session t
WHERE t.date >= '2016-01-01' AND t.date <= now
 
 
  • 1
  • 2
  • 3
  • 4

上述SQL代码中,now表示当天的日期。很容易想到,越接近月末,上面的统计的数据量就会越大。更重要的是,在这种情况下,“数据倾斜”是必然的,因为只有一个reducer在进行COUNT(DISTINCT uuid)的计算,所有的数据都流向唯一的一个reducer,不倾斜才怪。

优化1

其实,在COUNT(DISTINCT xxx)的时候,我们可以采用“分治”的思想来解决。对于上面的例子,首先我们按照uuid的前n位进行GROUP BY,并做COUNT(DISTINCT )操作,然后再对所有的COUNT(DISTINCT)结果进行求和。
我们先把SQL写出来,然后再做分析。

-- 外层SELECT求和
SELECT
  SUM(mau_part) mau
FROM
(
  -- 内层SELECT分别进行COUNT(DISTINCT)计算
  SELECT
    substr(uuid, 1, 3) uuid_part,
    COUNT(DISTINCT substr(uuid, 4)) AS mau_part
  FROM detail_sdk_session
  WHERE partition_date >= '2016-01-01' AND partition_date <= now
  GROUP BY substr(uuid, 1, 3)
) t;
 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

上述SQL中,内层SELECT根据uuid的前3位进行GROUP BY,并计算相应的活跃用户数COUNT(DISTINCT),外层SELECT求和,得到最终的月活跃用户数。
这种方法的好处在于,在不同的reducer各自进行COUNT(DISTINCT)计算,充分发挥hadoop的优势,然后进行求和。

注意,上面SQL中,n设为3,不应过大。
为什么n不应该太大呢?我们假定uuid是由字母和数字组成的:大写字母、小写字母和数字,字符总数为26+26+10=62。理论上,内层SELECT进行GROUP BY时,会有 62^n 个分组,外层SELECT就会进行 62^n 次求和。所以n不宜过大。当然,如果数据量十分巨大,n必须充分大,才能保证内层SELECT中的COUNT(DISTINCT)能够计算出来,此时可以再嵌套一层SELECT,这里不再赘述。

优化2

其实,很多博客中都记录了使用GROUP BY 操作代替 COUNT(DISTINCT) 操作,但有时仅仅使用GROUP BY操作还不够,还需要加点小技巧。
还是先来看一下代码:

--  第三层SELECT
SELECT
  SUM(s.mau_part) mau
FROM
(
  -- 第二层SELECT
  SELECT
    tag,
    COUNT(*) mau_part
  FROM
  (
      -- 第一层SELECT
    SELECT
      uuid, 
      CAST(RAND() * 100 AS BIGINT) tag  -- 为去重后的uuid打上标记,标记为:0-100之间的整数。
    FROM detail_sdk_session
    WHERE partition_date >= '2016-01-01' AND partition_date <= now
    GROUP BY uuid   -- 通过GROUP BY,保证去重
   ) t
  GROUP BY tag
) s
;
 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  1. 第一层SELECT:对uuid进行去重,并为去重后的uuid打上整数标记
  2. 第二层SELECT:按照标记进行分组,统计每个分组下uuid的个数
  3. 第三层SELECT:对所有分组进行求和
    上面这个方法最关键的是为每个uuid进行标记,这样就可以对其进行分组,分别计数,最后去和。如果数据量确实很大,也可以增加分组的个数。例如:CAST(RAND() * 1000 AS BIGINT) tag
    —-EOF—–
    Categories: hive Tags: hive COUNT DISTINCT
原文地址:[Hive之COUNT DISTINCT优化](https://blog.csdn.net/picway/article/details/80718800)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值