对于同一个网址进行二次爬取时没有获取到数据

一、原因
要进行二次解析的域名被过滤了

二、解决


yield scrapy.Request(url=detail_url, meta={'item': item}, callback=self.parse_info, dont_filter=True)

通过使用dont_filter=True来避免被过滤。

Hope for the best ,but prepare for the worst 。

回答: 要实现Python爬虫爬取多个页面,可以采用增量爬虫的方式。增量爬虫是通过监测网站更新的情况,只抓取最新数据的一种方式,可以大大降低资源的消耗。当第一次运行爬虫程序爬虫会将所有的url抓取下来,并将这些url放入数据库中,并为每一个url生成专属的“指纹”。当网站更新后,第二次运行爬虫程序,程序只会对数据库中不存在的指纹进行抓取,从而获取数据的信息。这样可以避免重复抓取已经抓取过的数据,提高爬取效率。\[1\]\[3\]另外,如果要爬取动态加载的数据,可以通过查看页面源代码,找到数据加载的JS函数,并模拟执行该函数来获取数据。\[2\] #### 引用[.reference_title] - *1* *3* [Python爬虫:抓取多级页面数据](https://blog.csdn.net/pythonhy/article/details/128784799)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Python 爬虫爬取多页数据](https://blog.csdn.net/weixin_39583222/article/details/109936174)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值