Java网络爬虫crawler4j学习笔记<10> HostDirectives类

源代码

package edu.uci.ics.crawler4j.robotstxt;

// 存放当前Host的robot.txt指令
public class HostDirectives {

  // If we fetched the directives for this host more than
  // 24 hours, we have to re-fetch it.
  private static final long EXPIRATION_DELAY = 24 * 60 * 1000L;

  // 不允许访问的规则
  private RuleSet disallows = new RuleSet();
  // 允许访问的规则
  private RuleSet allows = new RuleSet();

  // 获取robot指令的时间
  private long timeFetched;
  // 最后一次使用robot指令集合的时间
  private long timeLastAccessed;

  public HostDirectives() {
    timeFetched = System.currentTimeMillis();
  }

  // 如果超出指定时间限制,需要重新获取robot指令
  public boolean needsRefetch() {
    return (System.currentTimeMillis() - timeFetched > EXPIRATION_DELAY);
  }

  // 当前path是否允许访问
  public boolean allows(String path) {
    timeLastAccessed = System.currentTimeMillis();
    // disallows集合中没有或者allows集合中有,则可以访问
    return !disallows.containsPrefixOf(path) || allows.containsPrefixOf(path);
  }

  // 增加当前path到不允许访问的集合中去
  public void addDisallow(String path) {
    disallows.add(path);
  }

  // 增加当前path到允许访问的集合中去
  public void addAllow(String path) {
    allows.add(path);
  }

  // 最后一次访问时间
  public long getLastAccessTime() {
    return timeLastAccessed;
  }
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个简单的Java网络爬虫程序的示例代码: ```java import java.io.BufferedReader; import java.io.InputStreamReader; import java.net.URL; import java.util.HashSet; import java.util.Set; import java.util.regex.Matcher; import java.util.regex.Pattern; public class WebCrawler { private Set<String> visitedUrls = new HashSet<>(); private Pattern pattern = Pattern.compile("href=\"(http.*?)\""); public void crawl(String url) { try { visitedUrls.add(url); System.out.println("正在爬取网页:" + url); URL currentUrl = new URL(url); BufferedReader reader = new BufferedReader(new InputStreamReader(currentUrl.openStream())); String line; while ((line = reader.readLine()) != null) { Matcher matcher = pattern.matcher(line); while (matcher.find()) { String nextUrl = matcher.group(1); if (!visitedUrls.contains(nextUrl)) { crawl(nextUrl); } } } reader.close(); } catch (Exception e) { System.out.println("爬取网页出错:" + e.getMessage()); } } public static void main(String[] args) { WebCrawler crawler = new WebCrawler(); crawler.crawl("http://www.example.com"); } } ``` 这个程序使用递归的方式来实现爬取网页。它首先访问指定的初始网页,然后从网页源代码中提取出所有的链接,并递归地访问这些链接。 在这个程序中,使用了java.net包中的URL和URLConnection来进行网络连接,并使用java.util.regex包中的Pattern和Matcher来解析网页源代码中的链接。 当然,这只是一个非常简单的爬虫程序,实际应用中还需要考虑很多因素,如URL去重、爬取深度控制、并发爬取等等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值