Python爬虫学习记录——16.去重与入库

数据去重

数据去重又称重复数据删除,是指在一个数字文件集合中,找出重复的数据并将其删除,只保存唯一的数据单元。数据去重可以有效避免资源的浪费,所以数据去重至关重要。
数据去重可以从两个节点入手:一个是URL去重。即直接筛选掉重复的URL;另一个是数据库去重。即利用数据库的一些特性筛选重复的数据。

URL去重

为什么需要进行URL去重?

  1. 在爬虫启动工作的过程中,我们不希望同一个网页被多次下载,因为重复下载不仅会浪费CPU机时,还会为搜索引擎系统增加负荷。而想要控制这种重复性下载问题,就要考虑下载所依据的超链接,只要能够控制待下载的URL不重复,基本可以解决同一个网页重复下载的问题。
  2. 对于已经抓取过的链接,进行持久化,并且在启动的时候加载进入去重队列,是一个比较强的需求。
    它主要应对爬虫故障重跑,不需要重跑所有链接

如何确定去重强度?

  • 根据爬取周期确定使用去重强度
  • 抓取周期在一个小时内,不需要对已经抓取的链接做持久化
  • 抓取周期在一天内(或抓取的数据总量30w以下),需要对抓取链接做一个相对简单的持久化
  • 抓取周期在一天以上,需要对抓取链接做相对专业的持久化

URL去重方法:两种解决方法

  • 已经造好的轮子系列:

    • scrapy-deltafetch
    • scrapy-crawl-once
    • scrapy-redis
    • scrapy-redis-bloomfilter
  • 自己造轮子:

    • 自己写的init_add_request方法,可以轻量实现

这里着重介绍一下已经造好的轮子:scrapy-deltafetch

scrapy-deltafetch通过Berkeley DB来记录爬虫每次爬取收集的request和item,当重复执行爬虫时只爬取新的item,实现增量去重,提高爬虫爬取性能。

scrapy-deltafetch是依赖于Berkeley DB的,所以必须先安装bsddb3。选择使用LFD,这个网址包含几乎所有在Windows上安装容易出错的库,使用命令pip install 文件路径+文件名

  • 安装:pip install scrapy-deltafetch

  • 配置

    • settings.py文件中爬虫中间件部分添加DeltaFetch
    SPIDER_MIDDLEWARES = { 
    ‘scrapy_deltafetch.DeltaFetch’: 100, 
    } 
    

    这里,优先级100只是一个例子。设置它的值取决于其他中间件的优先级。

    • 为了让DeltaFetch可以使用,要在settings.py文件中把DELTAFETCH_ENABLED设为TRUE,
      DELTAFETCH_ENABLED = True
  • 参数设置

    • DELTAFETCH_ENABLED— 是否启用这个扩展件
    • DELTAFETCH_DIR— 存储状态目录
    • DELTAFETCH_RESET — 重置数据库,清除数据库所有请求

核心代码

def process_spider_output(self, response, result, spider):
    for r in result:  
        if isinstance(r, Request):    #对结果进行分析,如果是url,继续下一步,否则跳过
            key = self._get_key(r)    #通过_get_key函数生成key
            if key in self.db:        #查看key是否在数据库中
                logger.info("Ignoring already visited: %s" % r)   #如果在数据库,就抛弃
                if self.stats:
                    self.stats.inc_value('deltafetch/skipped', spider=spider)
                continue
        elif isinstance(r, (BaseItem, dict)):   #对结果分析,如果是dict or item ,继续下一步
            key = self._get_key(response.request)   
            self.db[key] = str(time.time())     #对url进行持久化操作
            if self.stats:
                self.stats.inc_value('deltafetch/stored', spider=spider)
        yield r
 def _get_key(self, request):
        #key值的生成,要么是request.meta传过来,要么使用指纹算法生成
        key = request.meta.get('deltafetch_key') or request_fingerprint(request)

        return to_bytes(key)   

scrapy原去重方法
这个处理的代码是编写在 dupefilter.py 文件中的,其中定义了处理重复 url 的方法。
具体步骤如下:

  1. 通过RFPDupeFilter() 类初始化一个名为fingerprints的set()集合
  2. 当request传入进来,通过指纹计算(也就是用请求方式和url对其进行哈希),得到唯一key值
  3. 在已抓取 url 集合中查找,如果不存在,就添加进去,如果需要写入文件,就写入文件;如果已经存在了,告诉上层调用 url 已经抓取过了。
  4. 主要代码如下:
def request_seen(self, request):
        fp = self.request_fingerprint(request)  #指纹计算,得到唯一key值
        if fp in self.fingerprints:   #在已抓取 url 集合中查找,如果不存在,就添加进去,如果需要写入文件,就写入文件;如果已经存在了,告诉上层调用 url 已经抓取过了。
            return True
        self.fingerprints.add(fp)
        if self.file:
            self.file.write(fp + os.linesep)

弊端

  • 如果该函数在下载器之前被调用,没办法保证目标url是否下载成功,如果失败了,没办法重复下载重试。(经过验证scrapy使用的是这种调用方式)
    scrapy框架的解决办法:在request中把dont_filter参数设为True
  • 如果该函数在下载器之后被调用,没起到url去重应有的作用,依然浪费了资源。

init_add_request方法

from scrapy.http import Request
def init_add_request(spider, url):
    """
    此方法用于在,scrapy启动的时候添加一些已经跑过的url,让爬虫不需要重复跑

    """
    rf = spider.crawler.engine.slot.scheduler.df  #找到实例化对象

    request = Request(url)
    rf.request_seen(request)    #调用request_seen方法

演示示例
这次示例先使用没有添加去重机制的爬虫进行试验,再添加去重机制看看两者的区别。

import scrapy
from scrapy.http import Request

class SpiderCity58Spider(scrapy.Spider):
    name = 'spider_city_58'
    allowed_domains = ['58.com']
    start_urls = ['http://cd.58.com/']

    def parse(self, response):
        pass
        yield Request('http://bj.58.com' , callback = self.parse) #请求bj.58.com,并回调parse函数
        yield Request('http://wh.58.com' , callback=self.parse)  #请求wh.58.com,并回调parse函数

得到结果如下:
在这里插入图片描述
可以看到三个链接都可以正常爬取,返回码为200
在scrapy文件夹下,建立去重文件init_utils.py:

from scrapy.http import Request
def init_add_request(spider, url):
    """
    此方法用于在,scrapy启动的时候添加一些已经跑过的url,让爬虫不需要重复跑

    """
    rf = spider.crawler.engine.slot.scheduler.df  #找到实例化对象

    request = Request(url)
    rf.request_seen(request)    #调用request_seen方法

在pipelines中添加去重函数:

def open_spider(self,spider): 
init_add_request(spider, ‘http://wh.58.com‘)

改变settings参数:

ITEM_PIPELINES = { 
‘city_58.pipelines.City58Pipeline’: 300, 
}

可以得到结果:
在这里插入图片描述
已经造好的轮子:scrapy-redis

  • scrapy-redis是什么
    一个三方的基于redis的分布式爬虫框架,配合scrapy使用,让爬虫具有了分布式爬取的功能
  • scrapy-redis的原理
    scrapy-redis实现分布式,其实从原理上来说很简单,这里为描述方便,我们把自己的核心服务器称为master,而把用于跑爬虫程序的机器称为slave。
    我们在master上搭建一个redis数据库(注意这个数据库只用作url的存储,不关心爬取的具体数据,不要和后面的mongodb或者mysql混淆),并对每一个需要爬取的网站类型,都开辟一个单独的列表字段。通过设置slave上scrapy-redis获取url的地址为master地址。这样的结果就是,尽管有多个slave,然而大家获取url的地方只有一个,那就是服务器master上的redis数据库。
    并且,由于scrapy-redis自身的队列机制,slave获取的链接不会相互冲突。这样各个slave在完成抓取任务之后,再把获取的结果汇总到服务器上(这时的数据存储不再在是redis,而是mongodb或者 mysql等存放具体内容的数据库了)
    这种方法的好处就是程序移植性强,只要处理好路径问题,把slave上的程序移植到另一台机器上运行,基本上就是复制粘贴的事情。

数据库去重

理论上讲,我们应该优先对url链接去重,数据库去重是一个很牵强的方案数据库去重,应该尽量使用数据库本身的各种机制去去重,如唯一键
关于数据入库,推荐使用非关系数据库MongoDB

补充:Berkeley DB数据库

Berkeley DB是一个嵌入式数据库,为应用程序提供可伸缩的、高性能的、有事务保护功能的数据管理服务。

主要特点

  • 嵌入式:直接链接到应用程序中,与应用程序运行于同样的地址空间中,因此,无论是在网络上不同计算机之间还是在同一台计算机的不同进程之间,数据库操作并不要求进程间通讯。 Berkeley DB为多种编程语言提供了API接口,其中包括C、C++、Java、Perl、Tcl、Python和PHP,所有的数据库操作都在程序库内部发生。多个进程,或者同一进程的多个线程可同时使用数据库,有如各自单独使用,底层的服务如加锁、事务日志、共享缓冲区管理、内存管理等等都由程序库透明地执行。
  • 轻便灵活:可以运行于几乎所有的UNIX和Linux系统及其变种系统、Windows操作系统以及多种嵌入式实时操作系统之下,已经被好多高端的因特网服务器、台式机、掌上电脑、机顶盒、网络交换机以及其他一些应用领域所采用。一旦Berkeley DB被链接到应用程序中,终端用户一般根本感觉不到有一个数据库系统存在。
  • 可伸缩:Database library本身是很精简的(少于300KB的文本空间),但它能够管理规模高达256TB的数据库。它支持高并发度,成千上万个用户可同时操纵同一个数据库
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

赈川

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值