写给自己的 scala.Product.$init$(Lscala/Product;)V问题解决方案

最近再操作学习spark的时候遇到的问题现在这儿记录下来以便后期沉淀一下。如有和我一样现象的同学朋友们多多注意一下。

首先再成这个异常的原因相信大家都查询了很多资料造成的原因主要就是Scala版本和Spark版本不匹配造成的。

解决办法首先

进入项目设置然后查看其中对应的Scala版本。

然后再去pom表里边查看你引入的Spark版本

 最后查看是否匹配不匹配的话更改一下pom表或者idea引入的Scala版本就好(切记不要引入两个版本做人要专一,为什么我会知道这个问题?我也不想知道我为什么知道这个问题。)。当然一般人到这边也就结束了,我为了我以后好查看肯定不能这么就结束了。不然我咋知道他们两个的版本对照?我以后还要再重新查一遍Scala和Spark的版本对照浪费自己时间是可耻的。

所以,这里给自己留下证据让自己以后好找。

这是地址图片看不了自己链接过去看:

https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11

https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.12?__cf_chl_jschl_tk__=8dd03c607c8e97e5db0e988e5fc8c6ddb6f9952d-1592894813-0-AaK_Qsxm0REfQWrRUDNVE29T2_dmbMCde9KvpW1roPPN2mU4wRAwWSRMRsnmPBHmM2EgWs1X-ZWwvGmsE6G9-kj11BP6ZHrnpxrbxdVrUJRfkHoz8ZR1-52rX4ywIxRJxEh1ZGDYgWciLrnHKF-ygiRskHH17G2GyGVvmJgEpWqUTZglOiHmnnhf-HUGlMc26d3n8df3zQLL07qCB749puFL-e_HljpsR-JrDyBBLKPaAfD348zmpiI_ZVAyofGr6jPWoZpDZh4DlWDYPuevl-Uso5c3ieLbi6BdCbXBOnk35DugUBXkTCYazYWU9hBhN8GvAuxyAY3VWpXjPTb16UEvbvFNngBtEm7SvDYP7unFYTLxAoHV6utbO9GRY_70J1tMcBYwq74uHwon2Pt6Y1o

  • 6
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值