- 博客(1)
- 资源 (4)
- 收藏
- 关注
原创 分布式环境下Spark与HDFS的配置
下面以ubuntu系统的两个计算机节点为例,介绍配置方法。一、准备工作笔者各软件包的使用版本为spark:1.4.0hadoop:2.7.0jdk:Oracle JDK 7操作系统: ubuntu, 14.04两台计算机的host name分别为spark-cluster-1和spark-cluster-2 。(1)按照上文所述,去各个软件的官网下载对应版本
2015-12-27 19:19:22 3092
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人