Spark菜鸟之路(1):Spark在Windows10下的环境配置

1)安装Scala 2.12.0(好像要2.11.0的,修改)

从https://www.scala-lang.org/download/all.html下载Scala相应版本


查看JAVA版本


两种下载

前者的IDE


还是选择msi吧。。。

装到固态上吧再见


cmd没Scala出来呀。。。

看看环境变量添加一下行不行


失败了。。。


哎呦重新进一回可以了!!!

2)Spark

来装Spark吧!!

http://spark.apache.org/downloads.html


这里用个适中的版本试一下(2.1.1)(用最新版了(2.3.0))

加个环境变量


跑一下从cmd


Hadoop


这里已经有winutils.exe了,没有的话去https://github.com/steveloughran/winutils 下一个,改下权限

e:\hadoop\bin\winutils.exe chmod 777 /tmp/hive

输入spark-shell,Emmmm,还有个Warn




阅读更多
文章标签: Spark
个人分类: Spark菜鸟之路
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

关闭
关闭
关闭