尝试爬虫实例操作(一)安装scarapy

网址:http://blog.csdn.net/zjiang1994/article/details/52779537点击打开链接

我之前在anaconda中看到安装了scrapy,所以感觉安装好了这个库,谁知并不能在电脑中直接使用,而是只能在Python代码中去调用。

安装软件,人都要被逼疯。这些个以whl为后缀的文件始终下不下来。

我稍微总结一下安装scrapy,首先需要安装Twisted,然后才能安装scrapy中的库。以前在下载whl文件的那个网站(https://www.lfd.uci.edu/~gohlke/pythonlibs/),下载成功过。这次不知道为什么怎么都不可以。

好了继续安装,进入网站https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted下载whl文件

教程说,首先要安装 wheel,安装方法:

pip install wheel

我在终端中输入:wheel,发现我已经安装,我都不知道什么时候安装的,那只能说我的python自带的。

之后从该网站中下载 twisted。这个的whl文件。我的是python3.6,所以我找到便是我图中的版本:


下载好之后(今天下载突然就没有问题了,且速度飞快,一脸问号),便进行安装。这个安装好之后,我还去下载了lxml,因为有些地方说这个是需要的,我便乘着现在可以下载将它下载下来,放在D:\360安全浏览器下载,路径之下。从终端进入此文件的地址。然后输入命令:pip install XXX.whl,注意名字不要任意去修改。


安装好twisted之后便可以去安装Scrapy了,直接在终端输入:pip install Scrapy.就可以进行安装了。


安装之后没有提示成功:


我便输入命令:scrapy startproject pyjy,进行爬虫项目的创建,并且测试是否安装成功。


项目建成,表示已经成功安装,这时候就要开始撒花了吧~~~~

他的提示,我也去尝试输入:


好了,安装就到这里了

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值