spark: Task not serializable (java)

spark程序用scala要比java方便的多,无奈java不熟,Scala不会。而每次遇到的坑,找半天,总是scala版本。


Task not serializable:没有进行序列化


org.apache.spark.SparkException: Task not serializable


原因有2点:

1.使用的map,filter等RDD操作里引用了外部定义的变量,例如:

String testT = "test";
JavaRDD<Document> filterParkingRdd = collRdd.filter(new Function<Document, Boolean>() {
private static final long serialVersionUID = 1L;
@Override
public Boolean call(Document doc) throws Exception {
String testTime = doc.getString(testT);
if (testTime != null) {
return true;
}
return false;
}
});


代码中定义了一个外部变量testT,RDD内部操作使用了这个变量,所以导致未序列化。


2.RDD中没有调用外部定义的变量,仍然报错。


其实第一种情况一般不会发生,因为在这之前,已经发生第二种情况。


解决方案:

在类上实现序列化接口:public class MessageCorrectness implements Serializable


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值