pyspark 报错:local class incompatible的解决方法

1. 总结

如果使用jupyter以standalone方式调试pyspark程序时,务必要保持driver端的pyspark版本与hadoop里的pyspark版本一致。

2. 具体问题

使用pyspark程序,如果报错类似:

local class incompatible: stream classdesc serialVersionUID = -3328732449542231715, local class serialVersionUID = 4416556597546473068这个错

很大概率是pyspark的版本问题,目前我遇到的情况是hadoop里的pyspark是2.4.7,而driver端的应用程序里装的pyspark是2.4.0,在show()的时候就会报上述错误。

同时,如果有列名里有中文,pyspark版本不一致时也会报错。

3. 技术点

通常使用pyspark程序,会有两种方式。

第一种方式是使用jupyter以standalone方式调试程序,这时候jupyter里使用的pyspark和大数据平台里的pyspark并非是一个,所以要保证版本一致。

例如在我使用的大数据平台下面的pyspark在如下目录:

 而jupyter是在一个单独的容器里的。

第二种方式是用yarn提交,这时候使用的pyspark都是一个,就是大数据平台里自带的这个。无需考虑版本不一致的问题。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值