使用BloomFilter优化scrapy-redis去重

使用BloomFilter优化scrapy-redis去重

1. 背景

  • 做爬虫的都知道,scrapy是一个非常好用的爬虫框架,但是scrapy吃内存非常的厉害。其中有个很关键的点就在于去重。
  • “去重”需要考虑三个问题:去重的速度和去重的数据量大小,以及持久化存储来保证爬虫能够续爬。
    • 去重的速度:为了保证较高的去重速度,一般是将去重放到内存中来做的。例如python内置的set( ),redis的set数据结构。但是当数据量变得非常大,达到千万级亿级时,因为内存有限,就需要用“位”来去重了, 因此BloomFilter应运而生,将去重工作由字符串直接转到bit位上,大大降低了内存占有率。
    • 去重的数据量大小:当数据量较大时,我们可以使用不同的加密算法,压缩算法(例如md5,hash)等,将长字符串压缩成16/32 长度的短字符串。然后再使用set等方式来去重。
    • 持久化存储:scrapy默认是开启去重的,而且提供了续爬设计,在爬虫终止时,会记录一个状态文件记录爬取过的request和状态。scrapy-redis的去重工作交给了redis,去重队列放到了redis中,而redis可以提供持久化存储。Bloomfilter是将去重对象映射到几个内存“位”,通过几个位的 0/1值来判断一个对象是否已经存在。Bloomfilter运行在一台机器的内存上,并不方便持久化,爬虫一旦终止,数据就丢失了。
  • 如上所述,对于scrapy-redis分布式爬虫来说,使用Bloomfilter来优化,必然会遇到两个问题:
    • 第一,要想办法让Bloomfilter能持久化存储下来。
    • 第二,对于scrapy-redis分布式爬虫来说,爬虫分布在好几台不同的机器上。而Bloomfilter是基于内存的,如何让各个不同的爬虫机器能够共享到同一个Bloomfilter,来达到统一去重?
  • 综上所述,将Bloomfilter挂载到redis上,持久化存储以及让各爬虫共享去重队列,这两个问题就都解决了。

2. 环境

  • 系统:win7
  • scrapy-redis
  • redis 3.0.5
  • python 3.6.1

3. Bloom Filter基本概念以及原理

  • 详情请参考文章:http://blog.csdn.net/jiaomeng/article/details/1495500
  • 简单来说,Bloom Filter是:

    • Bloom Filter 是一种空间效率很高的随机数据结构,利用位数组表示一个集合,并能判断一个元素是否属于这个集合。
    • Bloom Filter的这种高效是有一定代价的:在判断一个元素是否属于某个集合时,有可能会把不属于这个集合的元素误认为属于这个集合(false positive)。当然,如果这个元素属于这个集合,是一定不会被误判为不存在这个集合。
    • Bloom Filter不适合那些“0错误”的应用场合。
  • 为了能理解Bloom Filter的原理,必须熟悉以下几个基本元素的概念:

3.1. Bloom Filter位数组

  • Bloom Filter是用位数组表示集合的。初始状态时,Bloom Filter是一个包含m位的位数组 { 1, …, m },每一位都置为0。表现形式可以是一段空白的内存,长字符串,任意一种占用内存空间的数据结构……
    这里写图片描述

3.2. 待去重元素

  • 对爬虫来说,也就是request队列,我们记为 S = { R1, R2, …, Rn } 这样一个n个元素的集合。

3.3. k个相互独立的哈希函数

  • Bloom Filter使用k个相互独立的哈希函数,我们记为 H = { H1( ), H2( ), …, Hk( ) }。利用这些hash函数,对集合S = { R1, R2, …, Rn } 中的每个元素进行处理,映射到Bloom Filter开辟内存{ 1, …, m }的某一位上。这样,对于R1来说,映射的结果就是{ H1( R1 ), H2( R1 ), …, Hk( R1 ) }

这里写图片描述

  • 需要注意的是,如果一个位置多次被置为1,那么只有第一次会起作用,后面几次将没有任何效果。
    从这一点就可以看出为什么会有误判,有可能会把不属于这个集合的元素误认为属于这个集合,就是因为这个元素被映射后的集合上那些位上,可能已经被置成1了。

3.4. 错误率

  • Bloomfilter算法会有漏失概率,即不存在的字符串有一定概率被误判为已经存在。这个概率的大小与seeds的数量、申请的内存大小、去重对象的数量有关。下面有一张表,m表示内存大小(多少个位),n表示去重对象的数量,k表示seed的个数。例如我代码中申请了256M,即1<<31(m=2^31,约21.5亿),seed设置了7个。看k=7那一列,当漏失率为8.56e-05时,m/n值为23。所以n = 21.5/23 = 0.93(亿),表示漏失概率为8.56e-05时,256M内存可满足0.93亿条字符串的去重。同理当漏失率为0.000112时,256M内存可满足0.98亿条字符串的去重。
    这里写图片描述

4. redis的setbit功能

4.1. 官方说明

# SETBIT key offset value :设置或清除该位在存储在键的字符串值偏移
对 key 所储存的字符串值,设置或清除指定偏移量上的位(bit)。
位的设置或清除取决于 value 参数,可以是 0 也可以是 1 。
当 key 不存在时,自动生成一个新的字符串值。
字符串会进行伸展(grown)以确保它可以将 value 保存在指定的偏移量上。当字符串值进行伸展时,空白位置以 0 填充。
offset 参数必须大于或等于 0 ,小于 2^32 (bit 映射被限制在 512 MB 之内)。

4.2. 使用案例

在redis中,字符串都是以二级制的形式进行存储的。

第一步:设置一个 key-value ,字符串 testStr = ‘ab’
这里写图片描述
我们知道 ‘a’ 的ASCII码是 97, 转换为二进制是:01100001
‘b’的的ASCII码是 98,转换为二进制是:01100010。
‘ab’转换成二进制就是:0110000101100010

第二步:设置偏移
offset代表偏移,从0开始从左往右计数的,也就是从高位往低位 。
比如我们想将 011000010110001 0 (ab)置成 011000010110001 1(ac) ,也就是将第15位由0置成1,此时b变成了c
这里写图片描述

setbit完之后,会有有一个(integer) 0或者(integer)1的返回值,这个是在进行setbit 之前,该offset位的比特值。 
这就是redis 中 “SETBIT” 的基本用法。

redis还有一个与此相关的功能:bitcount,就是统计字符串的二级制编码中有多少个’1’。 所以这里
bitcount testStr 得到的结果就是 7

以上。

5. 详细部署

  • 结合上面Bloom Filter和redis的setbit功能,我们就知道如何将Bloom Filter挂载在redis上了。没错,就是一个大的字符串!
  • 下面是在scrapy-redis分布式爬虫中挂入Bloom Filter的详细步骤:

5.1. 编写Bloom Filter算法。

# 文件:Bloomfilter.py
# encoding=utf-8
import redis
from hashlib import md5
# 根据 开辟内存大小 和 种子,生成不同的hash函数
# 也就是构造上述提到的:Bloom Filter使用k个相互独立的哈希函数,我们记为 **H = { H1( ),  H2( ),  ...,  Hk( ) }**
class SimpleHash(object):
    def __init__(self, bitSize, seed):
        self.bitSize = bitSize
        self.seed = seed
<span class="hljs-function"><span class="hljs-keyword">def</span> <span class="hljs-title">hash</span><span class="hljs-params">(self, value)</span>:</span>
    ret = <span class="hljs-number">0</span>
    <span class="hljs-keyword">for</span> i <span class="hljs-keyword">in</span> range(len(value)):
        <span class="hljs-comment"># print(f"value[i] = {value[i]},  ord(value[i]) = {ord(value[i])}")</span>
        ret += self.seed * ret + ord(value[i])
    <span class="hljs-comment"># 控制hashValue的值在这个内存空间的范围</span>
    hashValue = (self.bitSize - <span class="hljs-number">1</span>) &amp; ret
    <span class="hljs-comment"># print(f"value = {value}, hashValue = {hashValue}")</span>
    <span class="hljs-keyword">return</span> hashValue

# 在redis中初始化一个大字符串,也可以认为是在redis中开辟了一块内存空间
# 需要指定数据库名, 比如这儿用到的就是db2
# 指定使用数据块个数,也就是开辟几个这样的大字符串。
# 当数据达到非常大时,512M肯定是不够用的,可能每个位都被置为1了,所以需要开辟多个大字符串
# 大字符串名name = (key + int)
class BloomFilter(object):
def init(self, host=‘localhost’, port=6379, db=2, blockNum=1, key=‘bloomfilter’):
“”"
:param host: the host of Redis
:param port: the port of Redis
:param db: witch db in Redis
:param blockNum: one blockNum for about 90,000,000; if you have more strings for filtering, increase it.
:param key: the key’s name in Redis
“”"

self.server = redis.Redis(host=host, port=port, db=db)
# 2^31 = 256M
# 这是一个限制值,最大为256M,因为在redis中,字符串值可以进行伸展,伸展时,空白位置以0填充。
self.bit_size = 1 << 31 # Redis的String类型最大容量为512M,现使用256M
self.seeds = [5, 7, 11, 13, 31, 37, 61]
self.key = key
self.blockNum = blockNum
self.hashfunc = []
for seed in self.seeds:
# 根据seed 构造出 k=7 个独立的hash函数
self.hashfunc.append(SimpleHash(self.bit_size, seed))

<span class="hljs-comment"># 判断元素是否在集合中</span>
<span class="hljs-function"><span class="hljs-keyword">def</span> <span class="hljs-title">isContains</span><span class="hljs-params">(self, str_input)</span>:</span>
    <span class="hljs-keyword">if</span> <span class="hljs-keyword">not</span> str_input:
        <span class="hljs-keyword">return</span> <span class="hljs-keyword">False</span>
    m5 = md5()
    m5.update(str_input.encode(<span class="hljs-string">'utf-8'</span>))
    <span class="hljs-comment"># 先取目标字符串的md5值</span>
    str_input = m5.hexdigest()
    ret = <span class="hljs-keyword">True</span>
    name = self.key + str(int(str_input[<span class="hljs-number">0</span>:<span class="hljs-number">2</span>], <span class="hljs-number">16</span>) % self.blockNum)
    <span class="hljs-keyword">for</span> f <span class="hljs-keyword">in</span> self.hashfunc:
        loc = f.hash(str_input)
        ret = ret &amp; self.server.getbit(name, loc)
    <span class="hljs-keyword">return</span> ret

<span class="hljs-comment"># 将str_input映射的结果,写入到大字符串中,也就是置上相关的标志位</span>
<span class="hljs-function"><span class="hljs-keyword">def</span> <span class="hljs-title">insert</span><span class="hljs-params">(self, str_input)</span>:</span>
    m5 = md5()
    m5.update(str_input.encode(<span class="hljs-string">'utf-8'</span>))
    str_input = m5.hexdigest()
    name = self.key + str(int(str_input[<span class="hljs-number">0</span>:<span class="hljs-number">2</span>], <span class="hljs-number">16</span>) % self.blockNum)
    <span class="hljs-keyword">for</span> f <span class="hljs-keyword">in</span> self.hashfunc:
        loc = f.hash(str_input)
        <span class="hljs-comment"># print(f"name = {name}, loc = {loc}")</span>
        self.server.setbit(name, loc, <span class="hljs-number">1</span>)

if name == main:
# 第一次运行时会显示 not exists, 之后再运行会显示 exists
bf = BloomFilter()
if bf.isContains(‘http://www.sina.com.cn/’): # 判断字符串是否存在
print(‘url exists!’)
else:
print(‘url not exists!’)
bf.insert(‘http://www.sina.com.cn/’)

5.2. 修改scrapy-redis的去重算法。

5.2.1. 分析源码调度过程。
# 调度过程:
1. 第一步,调度文件: scheduler.py
open() ——> self.df = load_object(self.dupefilter_cls) ——> dupefilter_cls=defaults.SCHEDULER_DUPEFILTER_CLASS ——> SCHEDULER_DUPEFILTER_CLASS = 'scrapy_redis.dupefilter.RFPDupeFilter' 
# 加入调度队列
def enqueue_request(self, request):
    if not request.dont_filter and self.df.request_seen(request):
        self.df.log(request, self.spider)
        return False
    if self.stats:
        self.stats.inc_value('scheduler/enqueued/redis', spider=self.spider)
    self.queue.push(request)
    return True
可见是使用dupefilter文件中的RFPDupeFilter类的 request_seen 方法来进行去重的。

2. 第二步,去重文件:dupefilter.py
def request_seen(self, request):
“”"Returns True if request was already seen.

Parameters
----------
request : scrapy.http.Request

Returns
-------
bool

"""</span>
fp = self.request_fingerprint(request)
<span class="hljs-comment"># This returns the number of values added, zero if already exists.</span>
added = self.server.sadd(self.key, fp)
<span class="hljs-keyword">return</span> added == <span class="hljs-number">0</span>

可以知道scrapy_redis是利用set数据结构来去重的,去重的对象是request的fingerprint。

def request_fingerprint(request, include_headers=None):
“”"
Return the request fingerprint.

The request fingerprint is a hash that uniquely identifies the resource the
request points to. For example, take the following two urls:

http://www.example.com/query?id=111&amp;cat=222
http://www.example.com/query?cat=222&amp;id=111

Even though those are two different URLs both point to the same resource
and are equivalent (ie. they should return the same response).

Another example are cookies used to store session ids. Suppose the
following page is only accesible to authenticated users:

http://www.example.com/members/offers.html

Lot of sites use a cookie to store the session id, which adds a random
component to the HTTP Request and thus should be ignored when calculating
the fingerprint.

For this reason, request headers are ignored by default when calculating
the fingeprint. If you want to include specific headers use the
include_headers argument, which is a list of Request headers to include.

"""</span>
<span class="hljs-keyword">if</span> include_headers:
    include_headers = tuple(to_bytes(h.lower())
                             <span class="hljs-keyword">for</span> h <span class="hljs-keyword">in</span> sorted(include_headers))
cache = _fingerprint_cache.setdefault(request, {})
<span class="hljs-keyword">if</span> include_headers <span class="hljs-keyword">not</span> <span class="hljs-keyword">in</span> cache:
    fp = hashlib.sha1()
    fp.update(to_bytes(request.method))
    fp.update(to_bytes(canonicalize_url(request.url)))
    fp.update(request.body <span class="hljs-keyword">or</span> <span class="hljs-string">b''</span>)
    <span class="hljs-keyword">if</span> include_headers:
        <span class="hljs-keyword">for</span> hdr <span class="hljs-keyword">in</span> include_headers:
            <span class="hljs-keyword">if</span> hdr <span class="hljs-keyword">in</span> request.headers:
                fp.update(hdr)
                <span class="hljs-keyword">for</span> v <span class="hljs-keyword">in</span> request.headers.getlist(hdr):
                    fp.update(v)
    cache[include_headers] = fp.hexdigest()
<span class="hljs-keyword">return</span> cache[include_headers]

从request_fingerprint可以看出,fingerprint到底是什么,,其实就是用hashlib.sha1()对request对象的某些字段信息进行压缩,用调试也可以看到,其实fp就是request对象加密压缩后的一个字符串(40个字符,0~f)

  • 总结,从上面的调度过程我们就可以看出,修改点就在于dupefilter.request_seen()函数。
5.2.2. 修改源码。
  • 原始文件 dupefilter.py
# 原始文件 .\Lib\site-packages\scrapy_redis\dupefilter.py

import logging
import time

from scrapy.dupefilters import BaseDupeFilter
from scrapy.utils.request import request_fingerprint

from . import defaults
from .connection import get_redis_from_settings


logger = logging.getLogger(__name__)


# TODO: Rename class to RedisDupeFilter.
class RFPDupeFilter(BaseDupeFilter):
    """Redis-based request duplicates filter.

    This class can also be used with default Scrapy's scheduler.

    """

    logger = logger

    def __init__(self, server, key, debug=False):
        """Initialize the duplicates filter.

        Parameters
        ----------
        server : redis.StrictRedis
            The redis server instance.
        key : str
            Redis key Where to store fingerprints.
        debug : bool, optional
            Whether to log filtered requests.

        """
        self.server = server
        self.key = key
        self.debug = debug
        self.logdupes = True

    @classmethod
    def from_settings(cls, settings):
        """Returns an instance from given settings.

        This uses by default the key ``dupefilter:<timestamp>``. When using the
        ``scrapy_redis.scheduler.Scheduler`` class, this method is not used as
        it needs to pass the spider name in the key.

        Parameters
        ----------
        settings : scrapy.settings.Settings

        Returns
        -------
        RFPDupeFilter
            A RFPDupeFilter instance.


        """
        server = get_redis_from_settings(settings)
        # XXX: This creates one-time key. needed to support to use this
        # class as standalone dupefilter with scrapy's default scheduler
        # if scrapy passes spider on open() method this wouldn't be needed
        # TODO: Use SCRAPY_JOB env as default and fallback to timestamp.
        key = defaults.DUPEFILTER_KEY % {'timestamp': int(time.time())}
        debug = settings.getbool('DUPEFILTER_DEBUG')
        return cls(server, key=key, debug=debug)

    @classmethod
    def from_crawler(cls, crawler):
        """Returns instance from crawler.

        Parameters
        ----------
        crawler : scrapy.crawler.Crawler

        Returns
        -------
        RFPDupeFilter
            Instance of RFPDupeFilter.

        """
        return cls.from_settings(crawler.settings)

    def request_seen(self, request):
        """Returns True if request was already seen.

        Parameters
        ----------
        request : scrapy.http.Request

        Returns
        -------
        bool

        """
        fp = self.request_fingerprint(request)
        # This returns the number of values added, zero if already exists.
        added = self.server.sadd(self.key, fp)
        return added == 0

    def request_fingerprint(self, request):
        """Returns a fingerprint for a given request.

        Parameters
        ----------
        request : scrapy.http.Request

        Returns
        -------
        str

        """
        return request_fingerprint(request)

    def close(self, reason=''):
        """Delete data on close. Called by Scrapy's scheduler.

        Parameters
        ----------
        reason : str, optional

        """
        self.clear()

    def clear(self):
        """Clears fingerprints data."""
        self.server.delete(self.key)

    def log(self, request, spider):
        """Logs given request.

        Parameters
        ----------
        request : scrapy.http.Request
        spider : scrapy.spiders.Spider

        """
        if self.debug:
            msg = "Filtered duplicate request: %(request)s"
            self.logger.debug(msg, {'request': request}, extra={'spider': spider})
        elif self.logdupes:
            msg = ("Filtered duplicate request %(request)s"
                   " - no more duplicates will be shown"
                   " (see DUPEFILTER_DEBUG to show all duplicates)")
            self.logger.debug(msg, {'request': request}, extra={'spider': spider})
            self.logdupes = False


 
 
  • 修改后的文件: dupefilter.py
# 修改后的文件 .\Lib\site-packages\scrapy_redis\dupefilter.py
import logging
import time

from scrapy.dupefilters import BaseDupeFilter
from scrapy.utils.request import request_fingerprint

from . import defaults
from .connection import get_redis_from_settings


isUseBloomfilter = False
try:
    from .Bloomfilter import BloomFilter
except Exception as e:
    print(f"there is no BloomFilter, used the default redis set to dupefilter.")
else:
    isUseBloomfilter = True

logger = logging.getLogger(__name__)


# TODO: Rename class to RedisDupeFilter.
class RFPDupeFilter(BaseDupeFilter):
    """Redis-based request duplicates filter.

    This class can also be used with default Scrapy's scheduler.

    """

    logger = logger

    def __init__(self, server, key, debug=False):
        """Initialize the duplicates filter.

        Parameters
        ----------
        server : redis.StrictRedis
            The redis server instance.
        key : str
            Redis key Where to store fingerprints.
        debug : bool, optional
            Whether to log filtered requests.

        """
        self.server = server
        self.key = key
        self.debug = debug
        self.logdupes = True
        # 使用 Bloonfilter 来对url去重
        if isUseBloomfilter == True:
            self.bf = BloomFilter()

    @classmethod
    def from_settings(cls, settings):
        """Returns an instance from given settings.

        This uses by default the key ``dupefilter:<timestamp>``. When using the
        ``scrapy_redis.scheduler.Scheduler`` class, this method is not used as
        it needs to pass the spider name in the key.

        Parameters
        ----------
        settings : scrapy.settings.Settings

        Returns
        -------
        RFPDupeFilter
            A RFPDupeFilter instance.


        """
        server = get_redis_from_settings(settings)
        # XXX: This creates one-time key. needed to support to use this
        # class as standalone dupefilter with scrapy's default scheduler
        # if scrapy passes spider on open() method this wouldn't be needed
        # TODO: Use SCRAPY_JOB env as default and fallback to timestamp.
        key = defaults.DUPEFILTER_KEY % {'timestamp': int(time.time())}
        debug = settings.getbool('DUPEFILTER_DEBUG')
        return cls(server, key=key, debug=debug)

    @classmethod
    def from_crawler(cls, crawler):
        """Returns instance from crawler.

        Parameters
        ----------
        crawler : scrapy.crawler.Crawler

        Returns
        -------
        RFPDupeFilter
            Instance of RFPDupeFilter.

        """
        return cls.from_settings(crawler.settings)

    def request_seen(self, request):
        """Returns True if request was already seen.

        Parameters
        ----------
        request : scrapy.http.Request

        Returns
        -------
        bool

        """
        if isUseBloomfilter == True:
            # 使用 Bloomfilter 来对url去重
            fp = self.request_fingerprint(request)
            if self.bf.isContains(fp):  # 如果已经存在
                return True
            else:
                self.bf.insert(fp)
                return False
        else:
            # 使用redis默认的set进行去重
            fp = self.request_fingerprint(request)
            # This returns the number of values added, zero if already exists.
            added = self.server.sadd(self.key, fp)
            return added == 0

    def request_fingerprint(self, request):
        """Returns a fingerprint for a given request.

        Parameters
        ----------
        request : scrapy.http.Request

        Returns
        -------
        str

        """
        return request_fingerprint(request)

    def close(self, reason=''):
        """Delete data on close. Called by Scrapy's scheduler.

        Parameters
        ----------
        reason : str, optional

        """
        self.clear()

    def clear(self):
        """Clears fingerprints data."""
        self.server.delete(self.key)

    def log(self, request, spider):
        """Logs given request.

        Parameters
        ----------
        request : scrapy.http.Request
        spider : scrapy.spiders.Spider

        """
        if self.debug:
            msg = "Filtered duplicate request: %(request)s"
            self.logger.debug(msg, {'request': request}, extra={'spider': spider})
        elif self.logdupes:
            msg = ("Filtered duplicate request %(request)s"
                   " - no more duplicates will be shown"
                   " (see DUPEFILTER_DEBUG to show all duplicates)")
            self.logger.debug(msg, {'request': request}, extra={'spider': spider})
            self.logdupes = False
  
  
5.2.3. 文件结构

这里写图片描述

5.3. 结果展示。

  • 使用前:
    这里写图片描述

  • 使用后:
    这里写图片描述

5.4. 特别说明。

5.4.1. 关于错误率
  • 对于爬虫来说,需要根据数据量,来配置不同的参数信息,如果参数配置不准确,错误率将会非常之高,导致request丢失(上面的hash算法映射的位数太多,容易导致大的误判率),非常的不划算……
5.4.2. 关于移除Bloom Filter
  • 不仅需要移除BloomFilter.py,而且要将下面的缓存文件一并移除。
    这里写图片描述
    这里写图片描述

附录:参考文章

  1. scrapy_redis去重优化(已有7亿条数据),附Demo福利:http://blog.csdn.net/bone_ace/article/details/53099042
  2. Bloom Filter概念和原理:http://blog.csdn.net/jiaomeng/article/details/1495500
  3. 基于Redis的Bloomfilter去重(附Python代码):http://blog.csdn.net/Bone_ACE/article/details/53107018#insertcode
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Scrapy 提供了很多方法来进行去重。常用的方法包括: 1. 使用 Scrapy 自带的去重中间件:`scrapy.middlewares.dupefilters.RFPDupeFilter`。 2. 使用 Scrapy 自带的 BloomFilter 去重中间件:`scrapy.middlewares.dupefilters.BLOOMDupeFilter`。 3. 在 spider 中手动实现去重,比如使用 Python 中的集合(set)来存储已爬取过的 URL。 具体使用方法请参考 Scrapy 官方文档:https://docs.scrapy.org/en/latest/topics/practices.html#avoiding-duplicate-requests 。 ### 回答2: 在Scrapy中,去重是通过使用一个组件 called RequestDupeFilter 来实现的。RequestDupeFilter 默认情况下启用,用来确保将来的请求和先前的请求进行对比并且不会重复爬取相同的URL。 RequestDupeFilter 使用哈希表来保存已经处理过的请求。这个哈希表的键是请求的URL,值是一个指纹(我们可以采用默认的指纹算法,也可以自定义),通过比较先前保存的指纹和即将要被爬取的请求的指纹来判断是否是重复请求。 当一个请求被发送到下载器时,RequestDupeFilter 会在哈希表中查找请求的URL,如果存在相同的URL,那么就判断为重复的请求并丢弃。如果不存在相同的URL,那么就将这个请求的URL和指纹保存到哈希表中,并将请求发送到下载器进行下载。 有两种方式来配置去重过滤器: 1. 使用默认的去重过滤器:Scrapy 默认启用 RequestDupeFilter,并使用默认的指纹算法。 2. 自定义去重过滤器:如果你想自定义去重过滤器,你需要创建一个派生自 scrapy.dupefilters.BaseDupeFilter 的类,并实现其中的方法。然后,在settings.py 文件中设置 DUPEFILTER_CLASS 配置项为自定义去重过滤器的类路径。 使用 Scrapy去重功能可以有效地避免爬虫重复爬取相同的URL,提高爬虫效率。 ### 回答3: Scrapy是一款用于爬取网站数据的Python框架,它提供了丰富的功能来帮助我们高效地进行数据抓取。在进行网页爬取时,经常会遇到需要进行数据去重的情况,以避免重复抓取相同的数据。 Scrapy有多种方式来进行数据去重,以下是其中几种常见的方法: 1. 使用scrapy自带的去重过滤器:Scrapy默认使用基于Python的集合Set进行URL去重,Set会自动排除重复的URL。要开启去重功能,需要在Scrapy项目的settings.py中设置DUPEFILTER_CLASS为scrapy.dupefilters.RFPDupeFilter。 2. 自定义去重过滤器:可以通过继承scrapy.dupefilters.RFPDupeFilter类并重写它的一些方法来实现自定义的去重方式。例如,可以根据URL中的某个参数来判断是否为重复数据,如果是则过滤掉。 3. 使用哈希算法进行去重:可以将每一个请求的URL通过哈希算法进行转换,然后判断该哈希值是否存在于已经请求过的哈希值集合中,如果存在则为重复数据,过滤掉。 4. 使用分布式数据库进行去重:对于大规模的爬虫系统,可以将已经请求过的URL存储在分布式数据库中,每次请求之前先查询数据库判断是否为重复数据。 无论采用哪种方式,数据去重对于提高爬虫的效率和减少重复抓取的工作量都是非常重要的。Scrapy提供了灵活且易于扩展的机制来进行数据去重,可以根据具体的需求选择合适的方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值