1.python 安装
2.jdk 安装
3.下载spark:http://spark.apache.org/downloads.html, 用最新版(spark-2.2.0-bin-hadoop2.7.tar),解压到合适的目录,我放在了/srv/下
4.配置环境变量
export SPARK_HOME=/srv/spark-2.2.0-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.4-src.zip:$PYTHONPATH
2.jdk 安装
3.下载spark:http://spark.apache.org/downloads.html, 用最新版(spark-2.2.0-bin-hadoop2.7.tar),解压到合适的目录,我放在了/srv/下
4.配置环境变量
export SPARK_HOME=/srv/spark-2.2.0-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.4-src.zip:$PYTHONPATH
5. 运行pyspark, 可以看到以下界面:
6.也可以用浏览器访问: http://192.168.0.120:4040