Spark
文章平均质量分 79
数定万物
这个作者很懒,什么都没留下…
展开
-
Spark学习2 【翻译】快速入门
本教程提供一个使用Spark的快速介绍。 首先,我们通过Spark交互shell(Python或Scala)介绍其API,然后演示如何使用Java、Scala和Python实现Spark应用。跟随该指南,首先从Spark网站下载一个Spark发行包。因为我们不使用HDFS,所以你可以下载任何版本的Hadoop版本的包。注意,在Spark2.0之前,Spark翻译 2017-08-30 20:11:16 · 798 阅读 · 0 评论 -
Spark系列1 Spark 安装
一、 Spark安装环境要求Spark可以在Windows和类Unix系统(例如Linux, Mac OS)上运行。运行Spark需要系统中先安装Java环境,并设置JAVA_HOME环境变量为Java的安装目录。Spark运行在Java8+,Python2.7+/3.4+ 和R 3.1+。 对于Scala API, Spark 2.2.0 使用Scal原创 2017-08-29 22:46:01 · 1648 阅读 · 0 评论