【spark】java.io.NotSerializableException: org.apache.spark.unsafe.types.UTF8String$IntWrapper

在使用Spark SQL执行查询时遇到了`java.io.NotSerializableException: org.apache.spark.unsafe.types.UTF8String$IntWrapper`的问题。问题出现在`select usernum from xx.test where day=20210715 group by usernum`的SQL语句中,由于分区字段`day`未加引号,导致聚合操作时出现问题。解决方案是为分区字段值添加引号,如`select usernum from test where day='20210715' group by usernum`。原因可能是SQL中的聚合操作在集群间传输时,由于缺少schema,Spark尝试将`day`字段强制转换,而`UTF8String$IntWrapper`未实现序列化。
摘要由CSDN通过智能技术生成

菜鸟一只,谨代表自己观点,欢迎大家指教
写了一个spark.sql("select usernum from xx.test where day=20210715 group by usernum ").show 居然报java.io.NotSerializableException。非常奇怪的问题。

  1. 环境:spark2.2.0+jdk1.8

  2. 前期准备工作:
    create table test (usernum string,type string) partitioned by(day string) row format delimited fields terminated by ‘\t’;
    alter table test add is not exists partitioned (day=‘20210715’);
    load data local inpath ‘/home/1.txt’ into table test;

  3. 代码
    spark.sql(“select usernum from test where day=20210715 group by usernum”).show

  4. 报错
    Exception in thread "main" org.apache.spark.SparkException: Task not serializable at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:298) at org.apache.spark.util.ClosureCleaner$.org$apache$spark$util$ClosureCleaner$$clean(ClosureCleaner.scala:288) at org.apache.spark.util.ClosureCleaner$.

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值