java spark-streaming java.lang.invoke.SerializedLambda to field org.apache.spark.rdd.MapPartitionsRD

再次吐槽,spark的文档对初学者真的非常不友好。

同时下面的错误大概率也是可以解决掉的。

java.io.IOException: 远程主机强迫关闭了一个现有的连接

问题描述

在本地idea执行spark streaming相关代码时,

setMaster为“local[2]”时,我是可以正常执行的,但是当我在 StandAlone 模式下启动本地集群的 setMaster 时,就会出现这个错误。

然后我分别根据不同的搜索结果,设置jars等,甚至看到官网关于此问题的两个issue

https://issues.apache.org/jira/browse/SPARK-9219
https://issues.apache.org/jira/browse/SPARK-18075

然而spark的开发者根本不认为这个是一个错误,只认为summit才是唯一支持的集群执行方式。

原因和解决

后来我发现jar包非常大,大概10M,但功能代码其实只有一个demo,不应该这么大。

于是认为,jar包的打包方式是有问题的,是需要assembly方式打包才行,更换方式打包后只有10k。

具体的使用方式参考:

https://segmentfault.com/a/1190000016237395

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值