Scrapy第四篇:复杂的起始start_urls和采集遗漏问题

1.复杂的start_urls。

有时候我们的起始url并不是单纯的url数组,可能是从数据库读取,可能是从文件中读取,也可能是通过requests访问远程API获取的。这时候就无法使用start_urls = []的形式了。需要采用一下方式:(以读取文件为例)

    def start_requests(self):
        self.urls = []
        with open('D:\Java\program\myscrapy\hot\hot\htmls.txt', 'r') as f:
            self.urls = f.readlines()
 
        for url in self.urls:
            time.sleep(2)
            yield scrapy.Request(url=url, callback=self.parse)

2.采集遗漏

①Request中加入参数,主爬虫文件中的parse方法的请求函数中加入参数:dont_filter=True

yield scrapy.Request(next_path, dont_filter=True, callback=self.parse)

②修改Setting.py文件

# 解决爬取遗漏问题
AUTOTHROTTLE_ENABLED = True

③删除allowed_domains。有时候是被限制域给过滤掉了。

3.创建请求的快捷方式 

普通形式: (不支持相对路径)

yield scrapy.Request(next_page, callback=self.parse)

快捷方式:(支持相对路径)

yield response.follow(next_page, callback=self.parse)
yield from response.follow_all(anchors, callback=self.parse)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

文子阳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值