Hive.分组排序和TOP

转载:https://blog.csdn.net/mashroomxl/article/details/23864685

HQL作为类SQL的查询分析语言,到目前为止,应该也还未能达到其它流行的SQL(如Transact-SQL, MySQL)实现那样完善。而在公司的生产环境中,我想应该也不会紧贴Hive版本更新的步伐,始终部署最新版的Hive;可能会滞后一两个大版本神马的;毕竟,虽然开源工具的透明性是一大利好,但与闭源的商业工具相比,在可用性等问题上的保障性还是略弱。

       使用HQL进行离线分析用户数据时,就算已经过聚合处理,但我们也可能只对那些突出的量化指标或者这些指标的增量变化感兴趣,所以对聚合数据排序(按某列降序?增序?)成为很基本的需要,这在HQL这样尚未成熟的语言中,结合orderby, limit子句可以毫无鸭梨地完成。

       然而,即使我们可以把多个字段放入order by子句中,并指定各个字段的升降顺序,如:

order by fieldA desc, fieldB [asc], fieldC desc

       但排序操作始终是全局的,我们有时候想要的却是分组排序,即按fieldA排序以后,然后针对fieldA的每个值所对应的fieldB和(或)fieldC排序,而不是像order by那样,针对所有fieldA的值对fieldB和(或)fieldC排序。

       为了满足这个需要,Transact-SQL提供了over, partition by句和 row_number()函数,而Hive也在0.11中引入over, partition by子句和rank函数,以此提供方便的窗口分析(分组分析)功能。

       那对于0.11版之前的Hive,我们可以实现分组排序吗?答案是肯定的,只是看起来没那么直接。

       要实现这个需求,就需要请出distribute by, sort by这两个重要角色了,distribute by能够执行我们需要的分组功能,再结合Hive查询的MapReduce Job特性,sort by又可以在分组内进行局部排序。

       当然,如果只有它们,我们只能得到排序后的一堆数据,但是无法知道每一条数据的名次,这就要自己编写UDF函数,来确定和返回名次了,这个函数貌似在网络上流传甚广:

  1. public final class Rank extends UDF {
  2. private int counter;
  3. private String last_key = "";
  4. public int evaluate(final String key) {
  5. if (key == null) {
  6. this.last_key= "";
  7. this.counter= 0;
  8. return counter;
  9. }
  10. if(!key.equalsIgnoreCase( this.last_key)) {
  11. this.counter= 0;
  12. this.last_key= key;
  13. }
  14. return this.counter++;
  15. }
  16. }

       在这里我们忽略了自定义UDF的注册的环节。。。在分组之后,应用Rank函数,这个函数始终跟踪最新的参数值,在参数值连续相同的情况下,就将字段counter作自增操作并返回这个计数值;而如果出现和上一次函数调用不同的参数值,Rank函数会重置其计数值字段和key字段(对应参数值)使我们得到一个int类型的名次值。

       Hive里称这个为自定义函数,实际上每个自定义函数是一个继承了UDF类,并提供和实现了evaluate方法的类;这个叫法略不福啊。

       有了distribute by, sort by和这个Rank函数,我们就能够实现分组排序了,编写HQL查询脚本之前,我们还需要明确:

       1. 分组字段:distribute by的字段是哪个(些)?

       2. 排序依据:sort by的字段是哪个(些)?

       3. 函数参数:Rank函数需要String参数,我们应该给Rank函数传递什么东西作为实参?


       不晓得是因为以上这3个问题确实像我们在教科书上偶尔会看到的“容易证得”,还是因为博主们只是想了这个问题,并没有实践,反正我看到的网络上讲分组排序(TOP)的博文都没有明确地提出这3个问题。而按我的实践经历来看,初次实现这种需求的童鞋,就算看了这些博文,在得到正确结果之前,应该都会经历各种困惑,下面我们从实际的场景来看看。

       比如,我们需要查询得到这样的数据:每日使用应用myAPP的UV量TOP 30的设备,和这TOP 10的设备中每个设备的流量(VV)最高的10项版块内容(以内容ID来区分);

       假定查询所需的Hive表为:hiveTab_useraction 

       思路梗概:先用一个子查询查出来每台设备的访问内容,同时,用一个子查询查出来TOP30的设备,然后两个表做内连接(join),然后在外层查询中提取所需字段列和数据列。

       在这个流程里面:

       1)找出TOP10的设备这个环节看起来没有涉及分组排序,但还是需要考虑上面3个问题,因为我们要得到名次,而order by貌似不能同Rank函数友好协作(也有可能是我使用的方式不科学呢),而且,在以下呈现的脚本中,我们还生成了一个常量字符串的distribute_key; 

       2)然后在外层循环中更需要考虑上面3个问题。

       请见HQL脚本:

  1. select
  2. device_rank,
  3. device_info,
  4. vv_rank,
  5. pageID,
  6. act_vv
  7. from
  8. (
  9. select
  10. device_rank,
  11. device_info,
  12. ( Rank(device_rank) + 1) as vv_rank,
  13. pageID,
  14. act_vv
  15. from
  16. (
  17. select
  18. t2.device_rank,
  19. t2.device_info,
  20. t1.pageID,
  21. t1.act_vv
  22. from
  23. (
  24. select
  25. fieldA as device_info,
  26. pageID,
  27. count( 1) as act_vv
  28. from hiveTab_useraction
  29. where `date` >= dateStart and `date` <= dateEnd
  30. group by fieldA, pageID
  31. ) t1
  32. join
  33. (
  34. select
  35. ( Rank(distribute_key) + 1) as device_rank,
  36. device_info,
  37. act_uv
  38. from
  39. (
  40. select
  41. distribute_key,
  42. device_info,
  43. act_uv
  44. from
  45. (
  46. select
  47. 'topdevice' as distribute_key,
  48. device_info,
  49. act_uv
  50. from
  51. (
  52. select
  53. fieldA as device_info,
  54. count( distinct uid) as act_uv
  55. from hiveTab_useraction
  56. where `date` >= dateStart and `date` <= dateEnd
  57. group by fieldA
  58. ) t
  59. order by act_uv desc
  60. limit 10
  61. ) t
  62. distribute by distribute_key
  63. sort by act_uv desc
  64. ) t
  65. ) t2 on (t1.device_info = t2.device_info)
  66. distribute by t2.device_rank
  67. sort by t2.device_rank, t1.act_vv desc
  68. ) t
  69. ) t
  70. where vv_rank <= 10

       从脚本实测来看,上面提到的需要明确的3个问题,真的很重要。另外,Rank函数返回的名次是从0开始,所以我们需要作+1处理。

       Hive向普通用户也开放了自行编写、注册和使用自定义函数的功能,这一点确实带来了很大的扩展性。


Hive SQL中的分组排序可以使用窗口函数和ORDER BY子句来实现。在给定的表中,可以使用PARTITION BY子句将数据按照指定的列进行分组,然后使用ORDER BY子句对每个分组内的数据进行排序。 例如,引用\[1\]中的示例代码展示了如何在students_article表中按照student_id进行分组,并使用rand()函数进行随机抽样,然后使用ROW_NUMBER()函数为每个学生的作文进行编号。最后,通过WHERE子句筛选出每个学生的前5篇作文。 另外,引用\[2\]中的示例代码展示了如何在service_visit表中按照visit_hour进行分组,并使用visit_cnt进行排序。通过使用ROW_NUMBER()函数为每个小时内的服务进行编号,然后通过WHERE子句筛选出每个小时内访问量前2的服务。 综上所述,Hive SQL中的分组排序可以通过窗口函数和ORDER BY子句来实现,具体的实现方式可以根据具体的需求和数据结构进行调整。 #### 引用[.reference_title] - *1* [hive sql 分组随机取数](https://blog.csdn.net/weixin_35057064/article/details/127227430)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [[Hive SQL] 实现分组排序分组topN](https://blog.csdn.net/sinat_41663922/article/details/118379494)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值