python后安装pyspark_pip安装pysp后运行pyspark

在本地模式下,使用pip安装的pyspark可能会遇到运行问题,因为默认未设置SPARK_HOME。通过手动设置环境变量PYSPARK_PYTHON和SPARK_HOME为pyspark的安装路径,可以成功运行pyspark,无需额外下载任何包。
摘要由CSDN通过智能技术生成

我刚刚也遇到了同样的问题,但结果发现pip install pyspark下载的spark distirbution在本地模式下运行良好。Pip只是没有设置适当的SPARK_HOME。但是当我手动设置时,pyspark的工作就像一个符咒(不需要下载任何额外的包)。$ pip3 install --user pyspark

Collecting pyspark

Downloading pyspark-2.3.0.tar.gz (211.9MB)

100% |████████████████████████████████| 211.9MB 9.4kB/s

Collecting py4j==0.10.6 (from pyspark)

Downloading py4j-0.10.6-py2.py3-none-any.whl (189kB)

100% |████████████████████████████████| 194kB 3.9MB/s

Building wheels for collected packages: pyspark

Running setup.py bdist_wheel for pyspark ... done

Stored in directory: /home/mario/.cache/pip/wheels/4f/39/ba/b4cb0280c568ed31b63dcfa0c6275f2ffe225eeff95ba198d6

Successfully built pyspark

Installing collected packages: py4j, pyspark

Successfully installed py4j-0.10.6 pyspark-2.3.0

$ PYSPARK_PYTHON=python3 SPARK_HOME=~/.local/lib/python3.5/site-packages/pyspark pyspark

Python 3.5.2 (default, Nov 23 2017, 16:37:01)

[GCC 5.4.0 20160609] on linux

Type "help", "copyright", "credits" or "license" for more information.

2018-03-31 14:02:39 WARN NativeCodeLoader:62 - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

Setting default log level to "WARN".

To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).

Welcome to

____ __

/ __/__ ___ _____/ /__

_\ \/ _ \/ _ `/ __/ '_/

/__ / .__/\_,_/_/ /_/\_\ version 2.3.0

/_/

Using Python version 3.5.2 (default, Nov 23 2017 16:37:01)

>>>

希望有帮助:-)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值