pyspark3.1.1在linux python3.5环境下报错AttributeError: ‘NoneType‘ object has no attribute ‘items‘

本文记录了作者在Linux 16.04上使用Python 3.5搭建pyspark 3.1.1环境时遇到的AttributeError问题。尝试了各种解决办法,包括查阅资料、考虑版本兼容性,最终发现pyspark 3.1.1可能不支持Python 3.5。作者通过降级到pyspark 2.4.7版本成功解决了问题。
摘要由CSDN通过智能技术生成

在搭建大数据pyspark环境时遇到的问题/坑,困扰了两三天,记录一下。

我的环境版本如下:

  • linux16.04
  • python3.5(linux自带)
  • Hadoop2.7
  • java 1.8_8u281

按照厦门大学实验室安装教程搭建环境,当时选择了最新的spark-3.1.1版本,如图:

spark版本

按照教程流程安装完后,运行pyspark失败,报错AttributeError: 'NoneType' object has no attribute 'items'。报错界面如下:

pyspark报错

百度了一下竟然没有人遇到相同的问题,就考虑可能是版本问题。用windows下的python3.6直接pip3 install pyspark,下载的版本也是pyspark-3.1.1。发现可以正常运行。查了一下spark-3.1.1目前还不是稳定版࿰

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值