Anaconda: 特别方便的整合了python下爬虫相关的依赖包

在windows下安装python和很多依赖包对于我这种懒人来说总觉得是一件非常痛苦的事情。之前偶然发现了一个python的大整合包,觉得异常好用,因此分享给大家。


Anaconda下载地址:
http://continuum.io/downloads


下载好后,直接双击安装就OK了,连环境变量Path都不用自己设,方便快捷。


最方便的一点是,它整合了大量的依赖包,下面是它所包含的全部依赖包:
http://docs.continuum.io/anaconda/pkg-docs.html
其中比如科学计算的numpy, theano等都应有尽有。

比如爬虫的scrapy在整合包里面没有的话怎么办呢?也非常的简单,只需要在命令行中输入conda install *** 即可安装相应的包:conda install scrapy
以下是我安装的截图:


注意:在使用conda install 安装的过程中,有时候因为网络问题或者其他问题会引起失败,此时要仔细看提示说明,寻找原因,如果是网络原因的话,重新输入以上命令即可~。我教研室有个师弟,因为网络原因装了8回,所以骚年洗洗菊花做好准备吧~
安装好的那一刻真是感动哭了,比网上介绍的各种scrapy的安装方法都要简单多了。
希望能对大家有所帮助,不会使编程的兴趣磨灭在配置环境的路上。
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值