离线环境下在anaconda中的pyspark配置
已有环境:win7,anaconda(我是安装了Python3),spark-2.0.2-bin-hadoop2.7已安装,环境变量均已配置离线环境下好像不方便直接pip install,一个方法是在路径下直接加上Python的包:找到anaconda的安装路径:C:\Users\admin\Anaconda3,找到spark的安装路径:D:\software\spark-2.0.2-bin-ha...
原创
2018-04-24 11:10:45 ·
1333 阅读 ·
0 评论