Spark 下使用分析函数报错

在Spark环境下执行包含分析函数(如sum() over (partition by))的SQL语句时出现错误,而在Hive中执行相同语句则正常。错误信息提示Spark不支持该SQL特性。询问是否Spark不支持分析函数以及如何解决这个问题。
摘要由CSDN通过智能技术生成


[Author]: Julia

如题,在spark下运行带有分析函数的sql语句,程序报错,但是同样的语句在Hive环境下面运行正常。

sql:--这一段是实际想要执行的语句,里面用到了sum() over (partition by )函数,子查询单独执行是没有问题的

select sum(r_count) over(partition by a.day) sum_day,
       a.r_count,
       a.datetime_v1,
       a.datetime_v2,
       a.day
  from (select count(*) r_count,
               SUBSTR(cast(fld_datetime as char(18)), 1, 10) AS DATETIME_V1,
               SUBSTR(cast(fld_datetime as char(18)), 12, 2) datetime_v2,
              

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值