- 博客(1)
- 收藏
- 关注
原创 ubuntu安装spark1.6
官网下载的spark比较贴心,它预编译了hadoop和scale,而且可以单机运行,不需要复杂的配置,只需要java环境就可以了。相比以前学习hadoop的时候,光是配置hadoop和hbase就够呛的了。下面是比较仔细的安装过程,包括虚拟机安装,java安装,spark安装等。1.virtualbox安装ubuntu下载ubuntu32位的,然后使用virtualbox安装。 安装比较简单,新建
2016-03-09 10:18:24 961
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人