requests实现一个通用自动下载爬虫(限制下载速度,下载深度)

本文介绍如何使用requests库构建一个具备自动下载、遵循robots.txt、限制下载速度、控制爬取深度功能的爬虫。示例代码以爬取菜鸟学院网站为背景,内容可保存至文件或MongoDB,支持错误重试和多线程下载。
摘要由CSDN通过智能技术生成

        Scrapy框架虽然能够很方便的下载网页,但是有时候爬取数据可能用不到Scrapy如此大的框架,使用requests库进行下载更加方便,那么我们就可以手动实现一个通用的requests库进行下载的爬虫,包括自动下载网页中其他链接的网页,限制爬虫爬取的速度,限制爬取网页的深度(从种子链接往下爬取几层网页)。

        主要功能实现:1.从下载的网页抽取出其他网页的链接。2.解析网站的robots.txt文件,是否遵守robots.txt文件。3.将下载内容存储到文件或者mongodb数据库,以下载的url为文件名或者键。4.下载失败能够重新下载。5.多线程同时下载。6.限制爬虫爬取的速度。7.限制爬虫向下爬取的深度。8.使用mongodb数据库防止重复下载。

         

import requests
from fake_useragent import UserAgent
from retrying import retry
import hashlib
from urllib import robotparser
from urllib.parse import urldefrag,urljoin,urlparse
import re
import queue
from datetime import datetime
from mongo_cache import MongoCache
import time
import random
from threading import Thread

MAX_DEP = 2

def extractor_url_lists(html_content):
    """
    抽取网页中其他链接
    :param html_content: 网页内容
    :return: 返回该页面所有网址
    """
    url_regex = re.compile('<a[^>]+href=["\'](.*?)["\']',re.IGNORECASE)
    return url_regex.findall(html_content)

def get_robots(url):
    """
    解析robots.txt文件
    :param url: 初始化的时候传递的种子链接
    :return:
    """
    rp = robotparser.RobotFileParser() # 创建一个解析robots.txt文件的对象
    robots_url = "http://"+urlparse(url).netloc # 从种子链接中提取出域名,加上http拼接成完整的域名
    rp.set_url(urljoin(robots_url,'robots.txt')) # rp.set_url(urljoin(url,'robots.txt'))  #拼接成完整的robots.txt的url
    rp.read()
    # rp.can_fetch("http://www.baidu.com",user-agent)
    return rp # 返回一个解析robots.txt的对象(对象中包含url属性)
  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值