win10的jupyter notebook使用pyspark2.3.2解决的报错问题

1、问题出现:

py4j.protocol.Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.

关于windows10下使用jupyter notebook时,对于pyspark版本只能取其spark2.3.2版本,具体简单demo如下:
在这里插入图片描述
如果版本不对,会报如下错:
在这里插入图片描述
在这里插入图片描述
关于python在windows10下使用pyspark的环境配置如下:
spark-2.3.2-bin-hadoop2.7资源包:https://pan.baidu.com/s/1EQV8VrDg_DDE39rXBILzRA 提取码:dflf
JDK1.8的资源包:https://pan.baidu.com/s/1HuwFyUnOaHfZNnKPS_uvUg 提取码:u8uu
winutils的资源包:链接:https://pan.baidu.com/s/1v7UI5taiy83JcoXg_8akdA 提取码:3duu

2、环境搭建:

java 的安装路径环境配置

变量名:JAVA_HOME
变量值:C:\Kungs\Java\jdk1.8.0_201

为了用命令pyspark直接启动 jupyter notebook

变量名:PYSPARK_DRIVER_PYTHON
变量值:jupyter
变量名:PYSPARK_DRIVER_PYTHON_OPTS
变量值:notebook

pyspark中的python的环境设置

变量名:PYTHONPATH
变量值:%SPARK_HOME%\python\lib\py4j;%SPARK_HOME%\python\lib\pyspark

spark在本地的环境设置,其路径是解压前面spark-2.3.2-bin-hadoop2.7资源包的位置

变量名:SPARK_HOME
变量值:C:\Kungs\spark-2.3.2-bin-hadoop2.7

同时在path环境中添加环境:

变量名:path
变量值:;C:\Kungs\Java\jdk1.8.0_201\bin;%JAVA_HOME%\bin;%SPARK_HOME%\bin;C:\Kungs\spark-2.3.2-bin-hadoop2.7\bin;

winutils资源包直接放在spark的路径下,这里放在C:\Kungs\spark-2.3.2-bin-hadoop2.7\bin目录下

再利用pip install pyspark==2.3.2 进行装包

测试pyspark成功:pyspark
测试java成功:javajavac

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Kungs8

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值