Python设计爬虫任务队列

from queue import Queue
import urllib3

urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)


class CrawlQueue(object):

    def __init__(self, items, args):
        self.max_failure = 10
        self.num_success = 0
        self.num_tol = len(items)
        self.args = args

        self.infos = self.initInfos(items)
        self.job_queue = Queue()
        self.job_fail = Queue()
        self.job_result = Queue()

        for info in self.infos:
            self.job_queue.put(info)

    #####重写的方法
    def parser(self, info: dict):
        success = True
        res = object
        return success, res

    def initInfos(self, items: list) -> list:
        return [{"id": i + 1, "failure": 0, "item": item, "res": None} for i, item in enumerate(items)]

    def handleInfo(self, info: dict):
        success, res = self.parser(info)
        if s
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值