其实那篇博文已经比较老了(注意到那个发布时间是2014年),不仅Spark有了飞越,
(版本依然重要)下面列出我的配置流水:
- 安装JDK 1.8,配置CLASS_PATH、系统Path
- 安装Scala 2.10.6(2.10.x的最新版),安装的时候没什么特殊情况的话,会自动加入Path
- 安装 Git for Windows ,这个记得安装的时候不要选Bash,要选Command Prompt
- 安装 SBT ,这个似乎不是必要的,因为IDEA自带这个,不过如果希望自己动动命令行手动构建的话,可以装个玩玩,记得加入Path,然后命令行执行sbt命令来进行初始化(有可能需要VPN,有些库被墙得厉害)
- 安装 IDEA ,最好的Java IDE没有之一,在我心目中和Visual Studio地位一样高,因此我也十足信任他在Scala上的能力。安装后记得安装Scala扩展
接下来就简单了,下载Spark 1.6的源码,解压到你希望的目录。
打开你的IDEA,选择导入项目,选中你解压后的源码根目录,之后再选SBT方式Finish就可以了。(接下来可能需要等一万年……能科学上网还是科学上网吧,我这个从夜里2点挂到了今天上午11点才算完事)
接下来做你该做的事情就好了。(不过你看最下面,SBT还在继续搞事……国内做研究真是麻烦啊啊啊)
未来我会根据我阅读的论文和源码的情况在本博客写一系列短文章,来介绍Spark的一些八卦(雾)。