- 博客(3)
- 收藏
- 关注
原创 Spark集群安装
Spark在生产环境中,主要部署在安装有linux系统的集群中。在Linux系统中安装Spark需要预先安装JDK(此教程有讲到)、Scala等所需要的依赖。由于Spark是计算框架,所以需要预先在集群内搭好存储在数据的持久层,Spark主要使用HDFS充当持久化层,所以本教程安装Spark集群需要预先安装Hadoop集群,hadoop集群中的安装已经在前面的博客中讲到了,这里面就不再赘述了,感兴
2015-11-19 19:18:37 618
转载 hadoop安装教程
环境本教程使用 Ubuntu 14.04 64位 作为系统环境(Ubuntu 12.04 也行,32位、64位均可),请自行安装系统。如果必须使用RedHat、CentOS等,本教程也可以作为参考,配置是相似的,就是Linux命令、具体操作有所不同。本教程基于原生 Hadoop 2,在 Hadoop 2.6.0 (stable) 版本下验证通过,可适合任何 Hadoop 2.x
2015-11-09 20:14:12 1028
转载 Hadoop集群安装配置教程
之前在参考一些资料搭建hadoop集群的时候老是出错,心情也是不爽,后来同学推荐我看了这边博客,感觉讲的是真心不错,也按着上面来做了,最后搭建成功,真的很感谢写这篇博客的博主。在这里,也推荐给大家。环境本教程使用 Ubuntu 14.04 64位 作为系统环境(Ubuntu 12.04 也行,32位、64位均可),请自行安装系统。如果必须使用 RedHat、CentOS 等
2015-11-09 20:09:56 639
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人