Nutch主流程代码阅读笔记整理(二)

三、主要类和方法分析

 

  1. org.apache.nutch.crawl.Injector:

1,注入url.txt

2,url标准化

3,拦截url,进行正则校验(regex-urlfilter.txt)

4,对符URL标准的url进行map对构造,在构造过程中给CrawlDatum初始化得分,分数可影响url host的搜索排序,和采集优先级!

5,reduce只做一件事,判断url是不是在crawldb中已经存在,如果存在则直接读取原来CrawlDatum,如果是新host,则把相应状态存储到里边(STATUS_DB_UNFETCHED(状态意思为没有采集过))

 

Injector injector = new Injector(conf); 

Usage: Injector <crawldb> <url_dir>

首先是建立起始url集,每个url都经过URLNormalizers、filter和scoreFilter三个过程并标记状态。首先经过normalizer plugin,把url进行标准化,比如basic nomalizer的作用有把大写的url标准化为小写,把空格去除等等。然后再经过的plugin 是filter,可以根据你写的正则表达式把想要的url留下来。经过两个步骤后,然后就是把这个url进行状态标记,每个url都对应着一个 CrawlDatum,这个类对应着每个url在所有生命周期内的一切状态。细节上还有这个url处理的时间和初始时的分值。

同时,在这个步骤里,会在文件系统里生成如下文件crawlDB/current/part-00000

这个文件夹里还有.data.crc , .index.crc, data, index四个文件

 

● MapReduce1: 把输入的文件转换成DB格式

In: 包含urls的文本文件

Map(line) → <url, CrawlDatum>; status=db_unfetched

Reduce() is identity;

Output: 临时的输出文件夹

● MapReduce2: 合并到现有的DB

Input: 第一步的输出和已存在的DB文件

Map() is identity.

Reduce: 合并CrawlDatum成一个实体(entry)

Out: 一个新的DB

 

 

  1. org.apache.nutch.crawl.Generator:

1,过滤不及格url (使用url过滤插件)

2,检测URL是否在有效更新时间里

3,获取URL metaData,metaData记录了url上次更新时间

4,对url进行打分

5,将url载入相应任务组(以host为分组)

6,计算url hash值

7,收集url, 直至到达 topN 指定量

 

Generator generator = new Generator(conf); //Generates a subset of a crawl db to fetch

 

Usage: Generator <crawldb> <segments_dir> [-force] [-topN N] [-numFetchers numFetchers] [-adddays numDays] [-noFilter]

在这个步骤里,Generator一共做了四件事情,

1、给前面injector完成的输出结果里按分值选出前topN个url,作为一个fetch的子集。

2、根据第一步的结果检查是否已经选取出一些url,CrawlDatum的实体集。

3、再次转化,此次要以url的host来分组,并以url的hash来排序。

4、根据以上的步骤的结果来更新crawldb(injector产生)。

 

● MapReduce1: 根据要求选取一些要抓取的url

In: Crawl DB 文件

Map() → if date≥now, invert to <CrawlDatum, url>

Partition 以随机的hash值来分组

Reduce:

compare() 以 CrawlDatum.linkCount的降序排列

output only top-N most-linked entries

● MapReduce2: 为下一步抓取准备

Map() is invert; Partition() by host, Reduce() is identity.

Out: 包含<url,CrawlDatum> 要并行抓取的文件

 

 

  1. org.apache.nutch.crawl.Fetcher:

1,从segment中读取,将它放入相应的队列中,队列以queueId为分类,而queueId是由 协议://ip 组成,在放入队列过程中,如果不存在队列则创建(比如javaeye的所有地址都属于这个队列:http://221.130.184.141) –>queues.addFetchItem(url, datum);

2,检查机器人协议是否允许该url被爬行(robots.txt) –> protocol.getRobotRules(fit.url, fit.datum);

3,检查url是否在有效的更新时间里 –> if (rules.getCrawlDelay() > 0)

4,针对不同协议采用不同的协议采用不同机器人,可以是http、ftp、file,这地方已经将内容保存下来(Content)。 –> protocol.getProtocolOutput(fit.url, fit.datum);

5,成功取回Content后,在次对HTTP状态进行识别(如200、404)。–> case ProtocolStatus.SUCCESS:

6,内容成功保存,进入ProtocolStatus.SUCCESS区域,在这区域里,系统对输出内容进行构造。 –> output(fit.url, fit.datum, content, status, CrawlDatum.STATUS_FETCH_SUCCESS);

7,在内容构造过程中,调取内容解析器插件(parseUtil),如mp3/html/pdf/word/zip/jsp/swf……。 –> this.parseUtil.parse(content); –> parsers[i].getParse(content);

8,现在研究html解析,所以只简略说明HtmlParser,HtmlParser中,会解析出text,title, outlinks, metadata。

text:过滤所有HTML元素;title:网页标题;outlinks:url下的所有链接;metadata:这东西分别做那么几件事情 首先检测url头部的meta name=”robots” 看看是否允许蜘蛛爬行,其次通过对meta http-equiv refresh等属性进行识别记录,看页面是否需要转向。

 

Fetcher fetcher = new Fetcher(conf); //The fetcher. Most of the work is done by plugins

Usage: Fetcher <segment> [-threads n] [-noParsing]

这个步骤里,Fetcher所做的事情主要就是抓取了,同时也完成一些其它的工作。首先,这是一个多线程的步骤,默认以10个线程去抓取。根据抓取回来后的结果状态来进行不同的标记,存储,再处理等等行为。输入是上一步骤Generator产生的segment文件夹,这个步骤里,考虑到先前已经按照ip 或host来patition了,所以在此就不再把input文件进行分割了。程序继承了SequenceFileInputFormat重写了 inputFormat来达到这点。这个类的各种形为都是插件来具体完成的,它只是一个骨架一样为各种插件提供一个平台。它先根据url来取出具体的 protocol,得到protocolOutput,进而得到状态status及内容content。然后,根据抓取的状态status来继续再处理。再处理时,首先会将这次抓取的内容content、状态status及它的状态标记进行存储。这个存储的过程中,还会记下抓取的时间,再把segment 存过metadata,同时在分析parsing前经过scoreFilter,再用parseUtil(一系列的parse插件)进行分析,分析后再经过一次score插件的处理。经过这一系列处理后,最后进行输出(url,fetcherOutput)。

之前讲到根据抓取回来的各种状态,进行再处理,这些状态一共包括12种,比如当抓取成功时,会像上刚讲的那样先存储结果,再判断是否是链接跳转,跳转的次数等等处理。

 

● MapReduce:抓取

In: <url,CrawlDatum>, 以host分区, 以hash值排序

Map(url,CrawlDatum) → <url, FetcherOutput>

多线程的, 同步的map实现

调用已有的协议protocol插件

FetcherOutput: <CrawlDatum, Content>

Reduce is identity

Out: 两个文件: <url,CrawlDatum>, <url,Content>

 

  1. org.apache.nutch.parse.ParseSegment

1,这个类逻辑就相对简单很多,它对我们也是很有价值的,它只做一件事情,就是对爬行下来的Content(原始HTML)进行解析,具体解析通过插件来实现。比如我们要做的数据分析、数据统计都可以在这进行实现。

2,执行完成后,输出三个Map对解析内容、包含所有链接的分析后的结果 、outlinks

 

ParseSegment parseSegment = new ParseSegment(conf); //Parse content in a segment

Usage: ParseSegment segment

对抓取后上一步骤存储在segment里的content进行分析parse。同样,这个步骤的具体工作也是由插件来完成的。

 

MapReduce: 分析内容

In: <url, Content> 抓取来的内容

Map(url, Content) → <url, Parse>

调用分析插件parser plugins

Reduce is identity.

Parse: <ParseText, ParseData>

Out: 分割成三个文件: <url,ParseText>, <url,ParseData> 和<url,CrawlDatum> 为了outlinks.

 

  1. org.apache.nutch.crawl.CrawlDb

主要根据crawld_fatch输出更新crawldb。

1,map对crawld_fatch、crawldb地址进行标准化(nomalizer)和拦截操作(filte);

2,reduce在对两crawld_fatch和crawldb进行合并更新。

 

CrawlDb crawlDbTool = new CrawlDb(conf); //takes the output of the fetcher and updates the crawldb accordingly.

Usage: CrawlDb <crawldb> (-dir <segments> | <seg1> <seg2> ...) [-force] [-normalize] [-filter] [-noAdditions]

 

MapReduce:合并抓取的和分析后的输出到crawldb里

In: <url,CrawlDatum>现有的db加上抓取后的和分析后的输出

Map() is identity

Reduce() 合并所有实体(entry)成一个,以抓取后的状态覆盖原先的db状态信息,统计出分析后的链接数

Out: 新的crawl db

 

  1. org.apache.nutch.crawl.LinkDb

这个类的作用是管理新转化进来的链接映射,并列出每个url的外部链接(incoming links)。

1,先是对每一个url取出它的outLinks,作map操作把这个url作为每个outLinks的incoming link,

2,在reduce里把根据每个key来把一个url的所有incoming link都加到inlinks里。

3,这样就把每个url的外部链接统计出来了,注意,系统对只对外部链接进行统计,什么叫外部链接呢,就是只对不同host进行统计,记住javaeye.com和biaowen.javaeye.com是两个不同的host哦。 –> boolean ignoreInternalLinks = true;

4,然后一步是对这些新加进来的链接进行合并。

 

● MapReduce: 统计每个链接的外部链接

In: <url,ParseData>, 包含所有链接的分析后的结果

Map(srcUrl, ParseData> → <destUrl, Inlinks>

为每个链出链接收集一个入链。

Inlinks: <srcUrl, anchorText>*

Reduce()加上外部入链数量

Out: <url, Inlinks>, 一个相关完整的链接地图

 

  1. org.apache.nutch.crawl.Indexer

这个类的任务是另一方面的工作了,它是基于hadoop和lucene的分布式索引。它就是为前面爬虫抓取回来的数据进行索引好让用户可以搜索到这些数据。这里的输入就比较多了,有segments下的fetch_dir,parseData和parseText,还有crawldb下的 current_dir和linkdb下的current_dir。

Indexer应用hadoop遍历所有Segments 目录,将parseData文件序列化成ParseData类,从中获得各种资料然后调用插件进行索引,最后仍然由ouputFormat类完成写入索引的工作。
注意,如果你仅想使用Nutch的爬虫,而不是其索引功能,可以仿照Indexer重写自己的实现,比如把segments内容直接搬进数据库。

 

1,在这个类里,map将所有输入都装载到一个容器里边,

2,在到reduce进行分类处理,

3,实现拦截 –> this.filters.filter(doc, parse, key, fetchDatum, inlinks);

4,打分 –> this.scfilters.indexerScore(key, doc, dbDatum,fetchDatum, parse, inlinks, boost);

5,当然要把这些数据体组合成一个 lucene的document让它索引了。

6,在reduce里组装好后收集时是,最后在输出的OutputFormat类里进行真正的索引。

doc里有如下几个field

content(正文)

site (所属主地址)

title (标题)

host (host)

segement (属于哪个segement)

digest (MD5码,去重时候用到)

tstamp (暂时不知道什么东西)

url (当前URL地址)

 

 

● MapReduce: 生成lucene的索引文件

In: 外个文件, values 以 <Class, Object>包装

<url, ParseData> from parse, 有title, metadata, 等等信息.

<url, ParseText> from parse, 文本 text

<url, Inlinks> from invert, 锚文本anchors

<url, CrawlDatum> from fetch,用于抓取

Map() is identity

Reduce() 生成Lucene Document

调用index插件

Out: 建立Lucene 索引; 最后存储到文件系统上

 

  1. org.apache.nutch.crawl.DeleteDuplicates

这个类的作用就是这它的名字所写的意思--去重。

前面索引后(当然不是一次时的情况)会有重复,所以要去重。为什么呢,在一次索引时是不重复的,可是多次抓取后就会有重复了。就是这个原因才要去重。当然去重的规则有两种一个是以时间为标准,一种是以内容的md5值为标准。

 

 

  1. org.apache.nutch.indexer.IndexMerger

这个类就相对简单了,目的将多个indexes合并为一个index,直接调用lucene方法实现!把所有的小索引合并成一个索引。在这一步没有用到map-reduce。

 

在这九大步骤中generator,fetcher,parseSegment,crawlDbTool会根据抓取的层数循环运行,当抓取的层数大于1时会运行linkInvert,index,dedup,和merge。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值