在mysql中、spark中分组concat排序去重

做实验 遇到一个很经典的问题,分组concat 排序 去重。
下面分别用mysql、spark dataframe、spark sql和 rdd 实现这个需求

首先看mysql 表结构

-- ----------------------------
-- Table structure for `test`
-- ----------------------------
DROP TABLE IF EXISTS `test`;
CREATE TABLE `test` (
  `time` varchar(20) DEFAULT NULL,
  `app` varchar(20) DEFAULT NULL,
  `appstore` varchar(20) DEFAULT NULL,
  `version` varchar(20) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

-- ----------------------------
-- Records of test
-- ----------------------------
INSERT INTO `test` VALUES ('2019-01-14', '王者荣耀', 'TapTap', 'v2.1');
INSERT INTO `test` VALUES ('2019-01-14', '王者荣耀', 'app store', 'v1.2');
INSERT INTO `test` VALUES ('2019-01-14', '王者荣耀', '应用宝', 'v1.3');
INSERT INTO `test` VALUES ('2019-01-14', '绝地求生', 'TapTap', 'v2.4');
INSERT INTO `test` VALUES ('2019-01-14', '绝地求生', 'app store', '2.3');
INSERT INTO `test` VALUES ('2019-01-14', '绝地求生', '应用宝', 'v2.4');
INSERT INTO `test` VALUES ('2019-02-14', '王者荣耀', 'app store', 'v1.8');
INSERT INTO `test` VALUES ('2019-02-14', '王者荣耀', 'TapTap', 'v1.8');
INSERT INTO `test` VALUES ('2019-02-14', '王者荣耀', '应用宝', 'v1.9');
INSERT INTO `test` VALUES ('2019-02-14', '绝地求生', 'TapTap', 'v2.4');
INSERT INTO `test` VALUES ('2019-02-14', '绝地求生', 'app store', 'v2.5');
INSERT INTO `test` VALUES ('2019-02-14', '绝地求生', '应用宝', 'v2.4');
INSERT INTO `test` VALUES ('2019-03-14', '王者荣耀', 'app store', 'v1.9');
INSERT INTO `test` VALUES ('2019-03-14', '王者荣耀', '应用宝', 'v2.1');
INSERT INTO `test` VALUES ('2019-03-14', '绝地求生', 'TapTap', 'v2.6');
INSERT INTO `test` VALUES ('2019-03-14', '绝地求生', 'app store', 'v2.6');
INSERT INTO `test` VALUES ('2019-03-14', '绝地求生', '应用宝', 'v2.6');
INSERT INTO `test` VALUES ('2019-03-14', '王者荣耀', 'TapTap', 'v2.0');

在这里插入图片描述

需求是 按照app、appstore分组,统计出版本的更新情况,当然了,版本肯定要去重、排序
1、 sql 如下:

SELECT
	a.app,
    a.appstore,
	count(1),
	GROUP_CONCAT(distinct a.version order by a.version)
FROM
	hepenghui.test a
GROUP BY
	a.app,a.appstore

经测试,在mysql 8.0.11版本中,不用 order by a.version 也可以排序,貌似是distinct默认会排序,但是在实验环境中,mysql是5.7版本的,必须用以上sql才可以排序。

对了,mysql 5.7 默认的sql_mode 有 only_full_group_by,所以只能执行严格的group by,如果想要修改

select @@global.sql_mode;
-- 去掉 only_full_group_by
set @@global.sql_mode=
'STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION';

2、spark sql & dataframe

准备代码:
info = spark.read.csv("file:///home/ub01/hepenghui/spark/test.csv")
info = info.toDF('time','app','appstore','version')

## spark sql 的解决方式
info.createOrReplaceTempView("test")
df = spark.sql(
    "select a.app,a.appstore,count(1),"
    "concat_ws(';',sort_array(collect_set(a.version))) as versions "
    "from test a  group by a.app,a.appstore order by a.app,a.appstore")

## spark dataframe 的解决方式

from pyspark.sql.functions import *
df = info.groupBy(info.app,info.appstore)\
    .agg((concat_ws(";",sort_array(collect_set(info.version)))).alias("versions"))

3、spark rdd 的方式就简单了

#coding=utf8

from pyspark import SparkContext

sc = SparkContext()
dataFile = "hdfs:///user/ub01/test.txt"
dataRdd = sc.textFile(dataFile)
# 2019-01-14,王者荣耀,TapTap,v1.3
def splitData(line):
    list = line.split(',')
    return (list[1],list[2]),(list[3])

rddSplit = dataRdd.map(splitData)
rddGroup = rddSplit.groupByKey().mapValues(set)

def sortD(list):
    list.sort()
    return list

rddSort = rddGroup.mapValues(list).mapValues(sortD).sortByKey()
listResult = rddSort.collect()

for i in listResult:
    print(i)

rddSort.saveAsTextFile("hdfs:///user/ub01/result")
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark SQL没有内置的group_concat函数,但可以使用concat_ws和collect_set或collect_list函数来实现类似的功能。 在引用的示例,使用了concat_ws和collect_set函数来实现group_concat的效果。首先使用collect_set函数将相同age的name聚合到一个集合,然后使用concat_ws函数将集合的元素以逗号分隔拼接在一起。 在引用的示例,也使用了collect_set函数来聚合name,只是此处使用的是agg函数来进行聚合操作。 所以,你可以根据你的需求选择其一种方法来实现spark sql的group_concat功能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [Spark SQL 实现 group_concat](https://blog.csdn.net/Islotus/article/details/80994272)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [Spark SQL整合Hive与concat有关的三个函数concat(),concat_ws(),group_concat() 笔记](https://blog.csdn.net/m0_46168848/article/details/129430887)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值