Java网络爬虫crawler4j学习笔记<9> RuleSet类

源代码

package edu.uci.ics.crawler4j.robotstxt;

import java.util.SortedSet;
import java.util.TreeSet;

// RuleSet类根据robot.txt来定义爬虫爬取url时的rule
public class RuleSet extends TreeSet<String> {

  private static final long serialVersionUID = 1L;

  @Override
  public boolean add(String str) {
    // 返回所有小于str的String集合
    SortedSet<String> sub = headSet(str);
    // 例如如果已经加入了http://www.baidu.com/image,则不用加入http://www.baidu.con/image/1.jpg
    if (!sub.isEmpty() && str.startsWith(sub.last())) {
      // no need to add; prefix is already present
      return false;
    }
    boolean retVal = super.add(str);
    // 返回所有大于等于str+'\0'的String的集合
    sub = tailSet(str + "\0");
    // 去掉冗余的规则,例如如果加入的是http://www.baidu.com/image,则需要去掉http://www.baidu.com/image/1.jpg
    while (!sub.isEmpty() && sub.first().startsWith(str)) {
      // remove redundant entries
      sub.remove(sub.first());
    }
    return retVal;
  }

  // 是否包含s作为前缀的规则
  public boolean containsPrefixOf(String s) {
    SortedSet<String> sub = headSet(s);
    // because redundant prefixes have been eliminated,
    // only a test against last item in headSet is necessary
    if (!sub.isEmpty() && s.startsWith(sub.last())) {   // 如果包含有大的规则,则等价于当前规则已经包含
      return true; // prefix substring exists
    }
    // might still exist exactly (headSet does not contain boundary)
    return contains(s);
  }
}

分析

RuleSet类是一个存储URL规则的集合,用于robot.txt。在URL的插入过程中,需要判断是否有包含当前规则的父规则存在,同时需要记得删除当前规则的所有子规则。
例如:
规则1:www.baidu.com/image
规则2:www.baidu.com/image/1.jpg

规则1是规则2的父规则,规则2是规则1的子规则。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值