spark编程python实例

本文介绍了如何在jupyter notebook环境中使用pyspark进行开发、测试,并通过shell提交spark应用。在过程中遇到了'ValueError: Cannot run multiple SparkContexts at once'的错误,通过在代码中添加特定解决方法成功运行了应用。
摘要由CSDN通过智能技术生成

1.pyspark在jupyter notebook中开发,测试,提交

1.1.启动

IPYTHON_OPTS="notebook" /opt/spark/bin/pyspark

ubuntu-spark-python-notebook1
下载应用,将应用下载为.py文件(默认notebook后缀是.ipynb)
sparkcode-saveaspy

在shell中提交应用

wxl@wxl-pc:/opt/spark/bin$ spark-submit /bin/spark-submit /home/wxl/Downloads/pysparkdemo.py

!sparkcode-spark-submit

3.遇到的错误及解决

ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*])
d*

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值