spark
spark学习
hao难懂
这个作者很懒,什么都没留下…
展开
-
在idea中创建spark项目的超详细过程
1.file — new project2.填写gid和aid3.选择项目名以及项目路径4.创建完成,到达pom.xml页面5.file – settings – 选择本地maven路径6.file – project structure7.添加scala的lib8.添加Scala的SDK9.添加spark的依赖jar包10.我们可以在java的源码包中写...原创 2020-03-04 21:58:14 · 5250 阅读 · 4 评论 -
关于scala和spark版本冲突报错
获取版本对应1.从spark官网可以获取官网链接:https://spark.apache.orgSpark runs on Java 8, Python 2.7+/3.4+ and R 3.1+. For the Scala API,Spark 2.4.5 uses Scala 2.12. You will need to use a compatible Scalaversion ...原创 2020-03-04 21:17:48 · 1284 阅读 · 0 评论