离线环境下在anaconda中的pyspark配置

已有环境:win7,anaconda(我是安装了Python3),spark-2.0.2-bin-hadoop2.7已安装,环境变量均已配置

离线环境下好像不方便直接pip install,一个方法是在路径下直接加上Python的包:

找到anaconda的安装路径:C:\Users\admin\Anaconda3,找到spark的安装路径:D:\software\spark-2.0.2-bin-hadoop2.7(视自己具体安装情况)

将D:\software\spark-2.0.2-bin-hadoop2.7\python 中的pyspark整个文件夹和py4j解压缩后的文件夹拷贝放进C:\Users\admin\Anaconda3\Lib\site-packages,然后编译器import pyspark.ml 无错误提示!可以运行pyspark的包啦~

--------------------------分割线---------------------

以上是一只Python初学者的亲测成功,方法虽笨却实实在在解决了我的问题,如果有什么问题欢迎留言指出,也希望有更好的办法,不然我以后可能都这么导包了(*/ω\*)

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值