最近在学习spark,需要用到scala环境,包括在idea上也要安装scala的插件。下面进去正题:
1:Windows上安装scala环境
这个就比较简单了,直接去官网下载就行了,我选的是2.13的版本,地址如下:
https://www.scala-lang.org/download/
直接选,msi文件下载就行了
下载完就直接双击安装进行了,然后要配置环境变量 $SCALA_HOME
安装完打开cmd,输入 scala -version验证一下就行了
2、idea上安装scala插件
第一种办法:
idea----》setting—》plugins---->搜scala安装进行了
第二种办法就是到官网去安装了,这种会比较快一点,这里一定要选择跟idea兼容的版本,你可以自己去idea先看看是哪个版本,地址如下:
https://plugins.jetbrains.com/plugin/1347-scala
下载完你就可以用idea安装进去了
到这里就基本完成了
最后一步:
如果你要在本地执行spark的local模式,你还需要安装和下载一个软件来模拟Hadoop环境,否则会出现:
scala运行异常Could not locate executable null\bin\winutils.exe in the Hadoop binaries
地址如下:
下载这个winutils:链接:https://pan.baidu.com/s/12o-QubOX2B5RdFYYXUG4Ag 提取码:951p
然后配置环境变量:
新建HADOOP_HOME,
最后,
所有都完成了!!!!!
参考文章:
https://blog.csdn.net/hr786250678/article/details/89702671