org.apache.spark.SparkException: Task not serializable问题

当Spark程序中的map、filter等操作引用非序列化成员时,会导致Task无法序列化异常。通过将类实现Serializable并使用transient关键字标注非序列化成员,可以解决这个问题。错误报告指出,SparkConf和JavaSparkContext是引发此错误的原因。
摘要由CSDN通过智能技术生成

由于Spark程序中的map、filter等算子内部引用了类成员函数或变量导致该类所有成员都需要支持序列化,又由于该类某些成员变量不支持序列化,最终引发Task无法序列化问题。相反地,对类中那些不支持序列化问题的成员变量标注后,使得整个类能够正常序列化,最终消除Task未序列化问题。

public class SparkRDDS {
	 SparkConf conf;//定义配置信息对象
	 JavaSparkContext jsc ;//声明spark上下文
	@Before
	public void start(){
		 conf = new SparkConf().setMaster("local[1]").setAppName("sparkRDDs");
		 jsc = new JavaSparkContext(conf);
	}
	@After
	public void end(){
		jsc.close();
	}
	/**
	 * map算子
	 * 对每一个元素执行操作
	 */
	@Test
	public void mapRDDTest(){
		//准备数据
		List<Integer> list = Arrays.asList(1,2,3,4,5);
		//数据并行化
		JavaRDD<Integer> dataRDD = jsc.parallelize(list)
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值