7、scrapy框架(三)

本文介绍了Scrapy的CrawlSpider类,讲解了如何利用Rule和LinkExtractor设置爬取规则,并详细阐述了如何处理响应、避免重复抓取以及自定义process_links方法。此外,还分享了在实践中如何构建item类、存储数据到MySQL数据库,以及使用pymysql进行数据操作。最后讨论了CrawlSpider的页面去重机制和navicat作为数据库管理工具的优势。
摘要由CSDN通过智能技术生成

一、CrawlSpider类(有rule功能可以不用层层解析)
重新创建爬虫文件,不用默认爬虫类模板,用crawlspider类模板
创建好爬虫文件后,输入scrapy genspider -l(进入模板列表)
然后选择换用其他模板,默认是basic,这里要换成
scrapy genspider -t(选择使用的模板) crawl name(随便起的名字) 域名
创建好后,文件里会自动导入rule和LinkExtractor对象

Rule(定义三种规则:1、如何爬取url(LinkExtrac对象) 2、形成请求 3、响应的处理)
Rule用来定义CrawlSpider的爬取规则
ruless=(Rule(LinkExtractor(只能用来提取url)(allow=r’item‘(通过正则表达式来提取url)),callback=’parse_item‘ , follow = true),process_links=None)
start_urls发送请求后,引擎把响应交给了ruless,然后通过LinkExtrac提取到了次级页面url,提取到url后就会形成请求,然后引擎又拿到新的response后,
再把response通过callback参数交给parse_item的定义方法进行解析

allow=r’item‘中item用url填入即可把需要提取的网页都提取出来,需要提取多个,则可以设置一些正则的规则,比如\d(匹配

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

T o r

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值