剖析搜索引擎背后的经典数据结构和算法

------ 本文是学习算法的笔记,《数据结构与算法之美》,极客时间的课程 ------

像百度、Google这样的搜索引擎,在我们平时工作中学习中,几乎天天遇到。如果我们把搜索引擎当作一个互联网产品的话,那它跟社交、电商这些类型的产品相比,有一个非常大的区别,那就是,它是一个技术驱动的产品。所谓技术驱动是指,搜索引擎实现起来,技术难度非常大,技术的好坏直接决定了这个产品的核心竞争力

今天借助搜索引擎,这样一个非常有技术含量的产品,来展示下,数据结构和算法是如何应用在其中的

整体系统介绍

你Google这样大型商用搜索引擎,有成千上万的工程师,十年如一日地对它进行优化改进,所以,它所包含的技术细节非常多。我很难、也没有能力,通过一篇文章把所有细节都讲清楚。

所以,接下来的讲解,我主要展示,如何在一台机器上(假设这台机器的内存是8GB,硬盘是100多GB),通过少量的代码,实现一个小型搜索引擎。不过,麻雀虽小,五脏俱全。跟大型搜索引擎相比,实现这样一个小型搜索引擎的理论是相通的。

搜索引擎大致可以分为四个部分:搜集、分析、索引、查询。其中,搜索,就是我们常说的利用爬虫爬取网页。分析,负责网页内容抽取、分词,构建临时索引,计算PageRank值这几部分工作。索引,主要负责通过分析阶段得到的临时索引,计算网页排名,返回查询结果给用户。

接下来,我就按照网页处理的生命周期,从这四个阶段,依次来给你讲解,一个网页从被爬取到最终展示给用户,这样一个完整的过程。与此同时,会穿插讲解,这个过程中需要用到哪些数据结构和算法。

搜集

现在,互联网越来越发达,网站越来越多,对应的网页也就越来越多。对于搜索引擎来说,它事先并不知道网页都在哪里。打个比方来说就是,我们只知道海里有很多钽,但却并不知道鱼在哪里在。那搜索引擎是如何爬取网页的呢?

搜索引擎把整个互联网看作数据结构中的有向图,把每个页面看作一个顶点。如果某个页面中包含另外一个页面的链接,那我们就在两个顶点之间连一条有向边。我们可以利用图的遍历搜索算法,来遍历整个互联网中的网页。

在前面我们介绍过图的遍历方法,深度优先和广度优先。搜索引擎采用的是广度优先搜索策略。具体点讲,就是我们先找一些比较知名的网页(专业的叫法是权重比较高)的链接(比如新浪主页网址、腾讯主页网址),作为种子网页链接,放入到队列中。爬虫按照广度优先的策略,不停地从队列中取出链接,然后爬取对应网页,解析网页里包含的其他网页链接,再将其解析出来的链接添加到队列中。

基本原理就是这么简单。但落实到实现层面,还有很多技术细节。我正面借助搜集阶段涉及的几个重要文件,来解释下搜索工程有哪些关键技术细节。

1、待爬取网页链接文件:links.bin

在广度优先搜索爬取页面的过程中,爬虫会不停地解析页面链接,将其放到队列中。于是,队列中的链接就会越来越多,可能多到内存放不下。所以,我们用一个存储在磁盘中的文件(links.bin)来作为广度优先搜索中的队列。爬虫从links.bin文件中,取出链接去爬取对应的页面。等爬取到网页后,将解析出来的链接,直接存储到links.bin文件中。

这样用文件来存储网页链接的方式,还有其他好处。比如,支持断点续爬。也就是说,当机器断电之后,网页链接就不会丢失;当机器重启之后,还可以从之前爬取到的位置继续爬取。

关于如何解析页面获取链接,我们可以把整个页面看作一个大的字符串,我们可以利用字符串匹配算法,在这个大字符串中,搜索这样一个网页标签,然后顺序读取之间的字符串。这其实就是网页链接。

2、网页判重文件:bloom_filter.bin

如何避免重复爬取相同的网页呢?这个问题我们在位图那一节已经讲过了。使用布隆过滤器,我们就可以快速且非常节省内存地实现网页的判重。

不过,还是刚刚那个问题,如果我们把布隆过滤器存储在内存中,那机器宕机重启之后,布隆过滤器就被清空了。这样就可能导致大量已经爬取的网页会重复爬取。

解决这个问题可以定期的(每间隔半小时)将布隆过滤器持久化到磁盘中,存储在 bloom_filter.bin文件中。这样,即便出现机器宕机,也只会丢失布隆过滤器中的部分数据。当机器重启后,我们就可以重新读取磁盘中的bloom_filter.bin文件,将其恢复到内存中。

3.原始网页存储文件:doc_raw.bin

爬取到网页之后,我们需要将其存储下来,以备后面离线分析、索引之用。那如何存储海量的原始网页数据呢?

如果我们把每个网页都存储为一个独立的文件,那磁盘中的文件就会非常多,数量可能会有几千万、甚至上亿。常用的文件系统显然不适合存储如此多的文件。所以,我们可以把多个网页存储在一个文件中。每个网页之间通过一定的标识进行分隔,方便后续读取。具体存储格式如下。其中,doc_id 这个字段是网页的编号,我们待会儿再解释。
在这里插入图片描述
当然,这样的一个文件也不能太大,因为文件系统对文件的大小也有一定的限制。所以,我们可以设置每个文件的大小不能超过一定的值(比如1GB)。随着越来越多的网页被添加到文件中,文件的大小就会越来越大,当超过1GB的时候,我们就创建一个新文件,用来存储新爬取的网页。

假设一台机器的硬盘大小是100GB左右,一个网页的平均大小是64KB。那在一台机器上,我们可以存储100万到200万左右的网页。假设我们的机器的带宽是10MB,那下载100GB网页,大约需要10000秒。也就是说,爬取100多万的网页,也就是只需要花费几小时的时间。

4、网页链接及其编号的对应文件:doc_id.bin

刚刚我们提到了网页编号这个概念,它实际上就是给每个网页分配一个唯一的ID,方便我们后续对网页进行分析、索引。那如何给网页编号呢?

我们可以按照网页被爬取的先后顺序,从小到大依次编号。具体是这样的:我们维护一个中心计数器,每爬取到一个网页之后,就从计数器中拿一个号码,分配给这个网页,然后计数器加一。在存储网页的同时,我们将网页链接跟编号之间的对应关系,存储在另一个doc_id.bin 文件中。

爬虫在爬取网页的过程中,涉及的四个重要文件,就介绍完了。其中,links.bin和bloom_filter.bin这两个文件是爬虫自身所用的。另外两个(doc_raw.bin doc_id.bin)是作为搜集阶段的成果,供后面分析、索引、查询用的。

分析

网页爬取下来之后,我们需要对网页进行离线分析。分析阶段主要包括两个步骤,第一个是网页文本信息,第二个是分词并创建临时索引。

1、抽取网页文本信息

网页是半结构化数据,里面夹杂着各种标签、JavaScript 代码、CSS样式。对于搜索引擎来产,它只关心网页中的文本信息,也就是,网页显示在浏览器中时,能被用户肉眼看到的那部分信息。我们如何从半结构化的网页中,抽取出搜索引擎的文本信息呢?

网页是遵循HTML语法规范的,依靠HTML标签来抽取网页中的文本信息。这个过程,大体可以分为两步。

第一步是去掉JavaScript代码、CSS格式以及下拉框中的内容(因为下拉框在用户不操作的情况下,也是看不到的)也就是)为止。而这期间遍历到的字符串连带着标签就应该从网页中删除。

第二步是去掉所有的HTML标签。这一步也是通过字符串匹配算法来实现的。

2.分词并创建临时索引

经过上面的处理之后,我们就从网页中抽取出了我们关心的文本信息。接下来,我们要对文本信息进行分词,并且创建临时索引。

对于英文网页来说,分词非常简单。我们只需要通过空格、标点符号等分隔符,将每个单词分割开来就可以了。但是,对于中文来说,分词就复杂太多了。这里介绍一种比较简单的思路,基于字典和规则的分词方法。

其中,字典也叫词库,里包含大量常用的词语(我们可以直接从网上下载别人整理好的)。借助词库并采用最长匹配规则,来对文本进行分词。所谓最长匹配,也就是匹配尽可能长的词语。我举个例子解释一下。

比如要分词的文本是“中国人民解放了”,我们词库中有“中国”、“中国人”、“中国人民”、“中国人民解放军”这几个词,那我们就取最长匹配,也就是“中国人民”划为一个词,而不是把“中国”、“中国人”划为一个词。具体实现层面,我们可以将词库中的单词,构建成 Trie 树结构,然后拿网页文本在 Trie 树中匹配。

每个网页的文本信息在分词完成之后,我们都得到一组单词列表。我们把单词与网页之间的对应关系,写入到一个临时索引文件中(tmp_Index.bin),这个临时索引文件用来构建倒排索引文件。临时索引文件的格式如下:
在这里插入图片描述
在临时索引文件中,我们存储的是单词编号,也就是图中 term_id,而非单词本身。这样做的目的主要是为了节省存储空间。那些单词的编号是怎么来的呢?

给单词编号的方式,跟网页编号类似。我们维护一个计数器,每当从网页文本信息中分割出一个新单词的时候,我们就从计数器中取一个编号,分配给它,然后计数器加一。

在这个过程中,我们还需要使用散列表,记录已经编过号的单词。在对网页文本信息分词的过程中,我们拿分割出来的单词,先到散列表中查找,如果找到,那就直接用已有的编号;如果没有找到,我们再去计数器中拿号码,并且将这个新单词以及编号添加到散列表中。

当所有的网页处理(分词及写入临时索引)完成之后,我们再将这个单词跟编号之间的对应关系,写入到磁盘文件中,并命名为 term_id.bin。

经过分析阶段,我们得到了两个重要的文件。它们分别是临时索引文件(tmp_index.bin)和单词编号文件(term_id.bin)。

索引

索引阶段主要负责将分析阶段产生的临时索引,构建成倒排索引。倒排索引(Inverted index)中记录了每个单词以及包含它的网页列表。文字描述比较难理解,我画了一张倒排索引的结构图。
在这里插入图片描述
我刚刚讲到,在临时索引文件中,记录的是单词跟每个包含它的文档之间的对应关系。那如何通过临时索引文件,构建出倒排索引文件呢?这是一个非常典型的算法问题,考虑到临时索引文件很大,无法一次性加载到内存中,搜索引擎一般会选择使用多路归并排序的方法来实现。

我们先对临时索引文件,按照单词编号的大小进行排序。因为临时索引很大,所以一般基于内存的排序算法就没法处理这个问题了。我们可以用之前讲到的归并排序思想,将其分割成多个小文件,先对每个小文件独立排序,最后再合并在一起。当然实际的软件开发中,我们其实可以直接利用 MapReduce来处理。

临时索引文件排序完成后,相同的单词就被排列到一起。再顺序遍历排好序的临时索引文件,就能将每个单词对应的网页编号列表找出来,然后把它们存储在倒排索引文件中,如下图。在这里插入图片描述
除了倒排文件之外,我们还需要一个文件,来记录每个单词编号在倒排索引文件中的偏移位置。我们把这个文件命名为 term_offset.bin。这个文件的作用是, 帮助我们快速地查找某个单词编号在倒排索引中存储的位置,进而快速地从倒排索引中读取单词编号对应的网页编号列表。在这里插入图片描述
经过索引阶段处理,我们得到了两个有价值的文件,它们分别是倒排索引文件(index.bin)和记录单词编号在索引文件中偏移位置的文件(term_offset.bin)。

查询

前面三个阶段的处理,只是为了最后的查询做铺垫。因此,现在我们就利用之前产生的几个文件,来实现最终的用户搜索功能。

  • doc_id.bin:记录网页链接和编号之间的对应关系。
  • term_id.bin:记录单词和编号之间的对应关系。
  • index.bin:倒排索引文件,记录每个单词编号以及对应包含它的网页编号列表。
  • term_offset.bin:记录每个单词编号在倒排索引文件中偏移的位置。

这四个文件中,除了倒排索引文件(index.bin)比较大之外,其他的都比较小。为了方便快速查找数据,我们将其他三个文件都加载到内存中,并且组织成散列表这种数据结构。、

当用户在搜索框中,输入某个查询文本的时候,我们先对用户输入的文本进行分词处理。假设分词之后,我们得到k个单词。

我们拿这 k 个单词,去 term_id.bin对应的散列表中,查找对应的单词编号。经过这个查询之后,我们得到了这 k 个单词对应的单词编号。

我们拿这 k 个单词编号,去term_offset.bin 对应的散列表中,查找每个单词编号在倒排索引文件中的偏移位置。经过这个查询之后,我们得到了 k 个偏移位置。

我们拿到 k 个偏移位置,去倒排索引(index.bin)中,查找 k 个单词对应包含它的网页编号列表。经过这一步查询之后,我们得到 k 个网页编号列表。

我们针对这 k 个网页编号列表,统计每个网页编号出现的次数。具体到实现层面,我们可以借助散列表进行统计。统计得到的结果,我们按照出现次数的多少,从小到大排序。出现次数越多,说明包含越多的用户查询单词(用户输入的搜索文本,经过分词之后的单词)。

经过一系列的查询,我们就得到了一组排好序的网页编号,我们拿着编号,去 doc_id.bin 文件中查找对应的网页链接,分布显示给用户就可以了。

总结引申

今天,我给你展示了一个小型搜索引擎的设计思路。这只是一个搜索引擎设计的基本原理,有很多优化、细节我们并未涉及,比如计算网页权重的 PageRank 算法、计算查询结果排名的 tf-idf模型等等。

在讲解的过程中,我们涉及的数据结构和算法有:图、散列表、Trie树、布隆过滤器、单模式字符串匹配算法、AC自动机、广度优先遍历、归并排序等。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值