Apache Spark是用 Scala编程语言 编写的。为了用Spark支持Python,Apache Spark社区发布了一个工具PySpark。使用PySpark,您也可以使用Python编程语言中的 RDD 。正是由于一个名为 Py4j 的库,他们才能实现这一目标。
PySpark提供了 PySpark Shell ,它将Python API链接到spark核心并初始化Spark上下文。今天,大多数数据科学家和分析专家都使用Python,因为它具有丰富的库集。将Python与Spark集成对他们来说是一个福音。
下面本文教大家如何来简单地安装pyspark(之前也在网上搜索了很多教程,无奈都是鸡肋,繁琐又不实用):
- 安装HomeBrew,homebrew地便捷性相信大家都有所耳闻,使用他可以很方便地再mac上安装很多软件。安装教程就不多介绍了,很简单地一句命令即可搞定。
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install.sh)"
- 安装Java依赖环境和Scala环境
spark是使用scala语言来完成编写的,而scala语言是依赖于java虚拟机来运行的,因此我们需要安装这两者: