scrapy parse不执行_Scrapy学习之路(自言自语)参考其

本文介绍了Scrapy框架的爬虫工作原理,特别是`parse`方法的执行过程和`yield`的作用。详细讲解了如何使用Item封装数据以及Item Pipeline的配置和功能,包括`process_item`、`open_spider`和`close_spider`等方法。此外,还提到了Scrapy中的XPath和CSS选择器用于数据提取,以及在实际使用中遇到的问题和解决经验。
摘要由CSDN通过智能技术生成

v2-19ec34a6d605f1692dd4bccdb64d2456_1440w.jpg?source=172ae18b

创建项目:scrapy startproject 项目名

创建爬虫:scrapy genspider spiderName www.xxx.com(爬虫的名字,起始的url)

执行爬虫:scrapy crawl spiderName

Scapy 之 Spider

Spider是一个基类,开发需要继承这个Spider基类,包含多个方法

start_reqeusts():设置起始url后由该默认方法构建Request对象,如果我们写自己的逻辑,比如模拟登陆等,需要重写父类方法.

def parse(self, response):默认解析方法,

工作:

1.提取数据,将数据封装后(Item或字典)提交给Scrapy引擎;
2.提取链接,并用链接构造新的Request对象提交给Scrapy引擎;其中,提取链接的方法包括使用选择器或使用LinkExtractor

Spider 之 yield:

类似于return,但又不同

结构:

allowed_domains &

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值