关于pycharm安装spark自定义解释器后提示:ImportError: cannot import name ‘SparkContext‘ from ‘pyspark‘错误

1.现象

代码:from pyspark import SparkContext

dos窗口执行该命令正常:

pycharm执行该语句提示:ImportError: cannot import name 'SparkContext' from 'pyspark'

2.解决办法

pycharm报错时,解释器选择是“Custom environment”如下图

将该选项调整为:

在设置中查看该项目的解释器为自定义的解释器(在dos中使用mkvirtualenv 环境名,创建的虚拟环境)

在项目结构选项中选择hadoop安装路径下面的lib目录,加载py4j

若运行结果显示py4j模块不存在,在pycharm中选择终端然后输入:pip install py4j命令,安装该模块即可。

3.验证结果

备注:projectvenv(推荐的工程环境)、Baseconda(针对有conda经验的用户)和customenvironment(包括新建与现有环境选择)按理说应该选择自定义的环境,但是自定义的总是提示该错误,于是选择了工程环境。

  • 10
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值