背景 就是版本没统一 spark和pyspark的版本需要统一 我的spark是3.0.3的 然后使用的是anaconda内的python,安装pyspark的时候没指定版本,默认安装最新的3.2 导致我在使用jupyter的时候报错 解决办法 pip uninstall pyspark pip install pyspark==3.0.3 然后重启jupyter即可