Spark关于在IDEA中使用maven创建scala项目时不能使用makeRDD和parallerize的原因

Spark关于在IDEA中使用maven创建scala项目时不能使用makeRDD和parallerize的原因

前几天,一直在学习Spark的计算引擎,但是刚开始学习,很多地方都摸不清方向,网上又找不着相关的解决办法。从今天开始就记录自己学习过程中所有不知名的错误。## 新的改变

由于最近不知道是我重新装了个Linux系统的原因,还是我电脑不稳定,还是我不经意间删除了什么东西,在我使用scala创建RDD的时候IDEA总是会报错,不管是makeRDD或者是parallerize都一样,出现数组越界,这里图片忘记截图了。
但是我折腾了很久,终于解决了。
解决办法如下:
在马maven的pom.xml配置文件中添加依赖:

  <groupId>com.thoughtworks.paranamer</groupId>
  <artifactId>paranamer</artifactId>
  <version>2.8</version>
</dependency>

其实没有别的,就是paranamer的版本太低,需要添加到自己仓库而已。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小满锅lock

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值