在Linux 系统使用Eclipse scala IDE开发环境报错: in from pyspark import SparkContext ImportError:cannot import name ‘SparkContext’
1:首先查看python的安装版本是否与anaconda的安装版本一致,不一致需要更换安装版本。
2:在PyDev设置Python链接库时尽量选择高版本,可以有更多的库函数供我们调用。问题基本解决。
总结:因为前期安装版本过低,导致后期开发时一些库函数不能调用,经过版本和编译环境的提高最终报错解决。