WebCollector下载整站页面(JAVA网络爬虫)

    非常多业务须要下载整站页面(有时为多个站点)。将页面依照站点拓扑结构存放。

    以下给出用JAVA爬虫WebCollector(2.09版本号以上)爬取整站网页并依照网页拓扑结构存储到本地的代码。

     代码中的抽取器能够作为一个插件复用。

     WebCollector的jar包可到官网下载:WebCollector官网。进入官网后下载webcollector-版本-bin.zip。解压得到所需jar包。

     

import cn.edu.hfut.dmic.webcollector.crawler.MultiExtractorCrawler;
import cn.edu.hfut.dmic.webcollector.extract.Extractor;
import cn.edu.hfut.dmic.webcollector.extract.ExtractorParams;
import cn.edu.hfut.dmic.webcollector.model.Page;
import cn.edu.hfut.dmic.webcollector.util.FileSystemOutput;
import cn.edu.hfut.dmic.webcollector.util.FileUtils;

import java.io.File;

/**
 * Created by hu on 2015/6/25.
 */
public class HtmlExtractor extends Extractor{

    FileSystemOutput fsOutput;

    public HtmlExtractor(Page page, ExtractorParams params) {
        super(page, params);
        /*每次抽取都会实例化一个Extractor对象,为了让全部Extractor对象共享一个FileSystemOutput对象,
          在外部实例化一个FileSystemOutput对象fsOutput。以參数形式传给每一个Extractor对象。这里是获取
          外部传入的FileSystemOutput对象*/
        fsOutput= (FileSystemOutput) params.get("fsOutput");
    }


    @Override
    public boolean shouldExecute() {
        //我们希望对全部网页运行此抽取器
        return true;
    }

    @Override
    public void extract() throws Exception {
        //本程序不须要进行网页抽取。所以extract()方法中不须要插入代码
    }

    @Override
    public void output() throws Exception {
        fsOutput.output(page);
    }

    public static void main(String[] args) throws Exception {

        /*假设下载目录存在。先删除目录*/
        File downloadDir=new File("download");
        if(downloadDir.exists()){
            FileUtils.deleteDir(downloadDir);
        }

        FileSystemOutput fsOutput=new FileSystemOutput("download");

        MultiExtractorCrawler crawler=new MultiExtractorCrawler("crawl",true);
        crawler.addSeed("http://36kr.com/");
        crawler.addRegex("http://36kr.com/.*");
        crawler.addExtractor(".*", HtmlExtractor.class, new ExtractorParams("fsOutput",fsOutput));
        crawler.start(100);
    }
}

程序运行后可到download目录中查看保存的网页:

WebCollector下载整站页面(JAVA网络爬虫)

转载于:https://www.cnblogs.com/ljbguanli/p/7008354.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值