发现按照之前论坛文章来没有安装spark和hadoop。。
按照这篇博文来操作后,由于去下载的最新的spark和Hadoop,对于我的jdk来说跟不上
文章里的版本是jdk1.8.0_101,我是1.8.0_131,比他还新,所以尝试用文章中的spark和Hadoop版本
可以做一个对比
项目 | 文章 | 我 |
---|---|---|
jdk | 1.8.0_101 | 1.8.0_131 |
scala | 2.10.6 | 2.10.6 |
spark | 1.6.2 | 1.6.2 |
Hadoop | 2.6.4 | 2.6.4 |
其中spark是pre-build的版本,即pre-build for Hadoop2.6,是编译好了可以直接用。如果下载spark源码的话需要自己手动编译。下载好直接解压到盘根目录下即可。同时,Hadoop也是下载的已编译好的版本。
安装完成后
接下来找个spark程序跑一下吧