Python 爬虫开发杂记之(九)scrapy框架安装和使用

一、安装scrapy

按照书上的来就行了,这里采用的是Anaconda来安装

这样就可以了 ,不需要安装其它的什么,在简单应用的场景下以下的不需要安装,有需要就要安装

二、使用教程

请参考书上第十三章即可...这里不多说了...

书上说需要IDE--集成开发环境(IDE,Integrated Development Environment ),有一个notepad++编辑py文件就行了.

当使用anaconda安装scrapy时没有配置到环境变量中去。不能再cmd中使用:scrapy命令

加入环境变量的作用也只是到安装目录下去执行而已,效果是一样的

而是需要这样来操作,命令带上全路径:

 

三、留记

Python爬虫就先告一段落,这个Python爬虫的学习知识本人的一时脑热,主业还是java,接下来的时间需要去读spring源码 了,Python爬虫的就先这样了...

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值