java heritrix_Heritrix 和 Nutch 比较与分析(java开源网络爬虫)

Heritrix项目介绍

Heritrix工程始于2003年初,IA的目的是开发一个特殊的爬虫,对网上的资源进行归档,建立网络数字图书馆。在过去的6年里,IA已经建立了400TB的数据。 IA期望他们的crawler包含以下几种:

宽带爬虫: 能够以更高的带宽去站点爬。

主题爬虫: 集中于被选择的问题。

持续爬虫: 不仅仅爬更当前的网页还负责爬日后更新的网页。

实验爬虫: 对爬虫技术进行实验,以决定该爬什么,以及对不同协议的爬虫 爬行结果进行分析的。

Heritrix工作原理

Heritrix是一个爬虫框架,可加如入一些可互换的组件。它的执行是递归进行的,主要有以下几步:

在预定的URI中选择一个。

获取URI

分析,归档结果

选择已经发现的感兴趣的URI。加入预定队列。

标记已经处理过的URI

Heritrix主要有三大部件:范围部件,边界部件,处理器链

范围部件: 主要按照规则决定将哪个URI入队。

边界部件: 跟踪哪个预定的URI将被收集,和已经被收集的URI,选择下一个 URI,剔除已经处理过的URI。

处理器链: 包含若干处理器获取URI,分析结果,将它们传回给边界部件

Heritrix的其余部件有:

WEB管理控制台: 大多数都是单机的WEB应用,内嵌JAVA HTTP 服务器。 操作者可以通过选择Crawler命令来操作控制台。

Crawler命令处理部件: 包含足够的信息创建要爬的URI。

Servercache(处理器缓存): 存放服务器的持久信息,能够被爬行部件随时查到,包括IP地址,历史记录,机器人策略。

处理器链:

预取链: 主要是做一些准备工作,例如,对处理进行延迟和重新处理,否决随后的操作。

提取链: 主要是获得资源,进行DNS转换,填写请求和响应表单

抽取链: 当提取完成时,抽取感兴趣的HTML,JavaScript,通常那里有新的也适合的URI,此时URI仅仅被发现,不会被评估

写链: 存储爬行结果,返回内容和抽取特性,过滤完存储。

提交链: 做最后的维护,例如,测试那些不在范围内的,提交给边 界部件

Heritrix 1.0.0包含以下关键特性:

用单个爬虫在多个独立的站点一直不断的进行递归的爬。

从一个提供的种子进行爬,收集站点内的精确URI,和精确主机。

主要部件都是高效的可扩展的

良好的配置,包括:

可设置输出日志,归档文件和临时文件的位置

可设置下载的最大字节,最大数量的下载文档,和最大的下载时间。

可设置工作线程数量。

可设置所利用的带宽的上界。

可在设置之后一定时间重新选择。

包含一些可设置的过滤机制,表达方式,URI路径深度选 择等等。

Heritrix的局限

单实例的爬虫,之间不能进行合作。

在有限的机器资源的情况下,却要复杂的操作。

只有官方支持,仅仅在Linux上进行了测试。

每个爬虫是单独进行工作的,没有对更新进行修订。

在硬件和系统失败时,恢复能力很差。

很少的时间用来优化性能。

爬虫信息

爬虫名称: Heritrix

爬行强度: 低

HTTP User Agent:

Mozilla/5.0 (compatible; heritrix/1.10.2 +http://www.my400800.cn /)

来访IP:171.64.75.233

对Heritrix爬虫进行控制

Heritrix被设计成严格遵循robots.txt文件的排除指示和META robots标签。

邀请Heritrix来访

如果你在在robots.txt中限制了部分爬虫,那么你可能需要在robots.txt中增加下述内容:

User-agent: Heritrix Disallow:

禁止Heritrix访问

如果你不希望Heritrix爬虫占用服务器资源,可以这样封锁它:

User-agent: Heritrix

Disallow: /

如果你仅仅不希望Heritrix爬行某些目录,则可以这样:

User-agent: Heritrix

Disallow: /somedir/

Heritrix 的架构示意图:

70a9fdf2bc40e1d51edb6f162de8c186.png

下面有一个heritrixProject.rar可以下来使用一些。。

运行org.archive.crawler.Heritrix 然后访问http://localhost:8080就可以了登入用户/密码为admin/admin

Heritrix和Nutch的差异:

Nutch 只获取并保存可索引的内容。Heritrix则是照单全收。力求保存页面原貌

Nutch 可以修剪内容,或者对内容格式进行转换。

Nutch 保存内容为数据库优化格式便于以后索引;刷新替换旧的内容。而Heritrix 是添加(追加)新的内容。

Nutch 从命令行运行、控制。Heritrix 有 Web 控制管理界面。

Nutch 的定制能力不够强,不过现在已经有了一定改进。Heritrix 可控制的参数更多。

Nutch 的架构示意图:

8fa93d9994877571a786868e31196667.png

下面是Nucth的运行流程图:

b1e8322067512a234fbeb1d9ca324d9e.png

其中nutch的抓取模块在编制索引保存到索引库之后就算完成。

另外一个图,可能需要在熟悉nutch之后才能看懂:

b9f84ffe26f95f9694d13658bedefd25.png

三个目录

首先理解nutch的三个数据目录:

1.crawdb ,linkdb 是web link目录,存放url 及url的互联关系,作为爬行与重新爬行的依据,页面默认30天过期。

2.segments 是主目录,存放抓回来的网页。页面内容有bytes[]的raw content 和 parsed text的形式。nutch以广度优先的原则来爬行,因此每爬完一轮会生成一个segment目录。

3.index 是lucene的索引目录,是indexs里所有index合并后的完整索引,注意索引文件只对页面内容进行索引,没有进行存储,因此查询时要去访问segments目录才能获得页面内容。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Heritrix是一个开源,可扩展的web爬虫项目。用户可以使用它来从网上抓取想要的资源。Heritrix设计成严格按照robots.txt文件的排除指示和META robots标签。其最出色之处在于它良好的可扩展性,方便用户实现自己的抓取逻辑。 Heritrix是一个爬虫框架,其组织结构如图2.1所示,包含了整个组件和抓取流程: Heritrix采用的是模块化的设计,各个模块由一个控制器类(CrawlController类)来协调,控制器是整体的核心。控制器结构图如图2.2所示:   图2.2 CrawlController类结构图 CrawlController类是整个爬虫的总控制者,控制整个抓取工作的起点,决定整个抓取任务的开始和结束。CrawlController从Frontier获取URL,传递给线程池(ToePool)中的ToeThread处理。 Frontier(边界控制器)主要确定下一个将被处理的URL,负责访问的均衡处理,避免对某一Web服务器造成太大的压力。Frontier保存着爬虫的状态,包括已经找到的URI、正在处理中的URI和已经处理过的URI。 Heritrix是按多线程方式抓取的爬虫,主线程把任务分配给Teo线程(处理线程),每个Teo线程每次处理一个URL。Teo线程对每个URL执行一遍URL处理器链。URL处理器链包括如下5个处理步骤。整个流程都在图2.1中。 (1)预取链:主要是做一些准备工作,例如,对处理进行延迟和重新处理,否决随后的操作。 (2)提取链:主要是下载网页,进行DNS转换,填写请求和响应表单。 (3)抽取链:当提取完成时,抽取感兴趣的HTML和JavaScript,通常那里有新的要抓取的URL。 (4)写链:存储抓取结果,可以在这一步直接做全文索引。Heritrix提供了用ARC格式保存下载结果的ARCWriterProcessor实现。 (5)提交链:做和此URL相关操作的最后处理。检查哪些新提取出的URL在抓取范围内,然后把这些URL提交给Frontier。另外还会更新DNS缓存信息。 服务器缓存(Server cache)存放服务器的持久信息,能够被爬行部件随时查到,包括被抓取的Web服务器信息,例如DNS查询结果,也就是IP地址。 标签:Heritrix

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值