由于案例就是爬取的CSDN博客,分析了一下各大博客网站,发现CSDN比较适合入门,所以我也选择CSDN作为开始,写我的第一个爬虫程序。
首先来介绍爬虫的核心爬取逻辑,即PageProcessor,我们每写一个爬虫,都必须编写一个针对待爬取网站的爬取逻辑,该类要实现PageProcessor接口。
import us.codecraft.webmagic.Page;
import us.codecraft.webmagic.Site;
import us.codecraft.webmagic.Spider;
import us.codecraft.webmagic.pipeline.JsonFilePipeline;
import us.codecraft.webmagic.processor.PageProcessor;
import java.text.SimpleDateFormat;
import java.util.Date;
import java.util.List;
import java.util.Scanner;
/**
* Created by Rush on 2017/3/27.
*/
public class CsdnBlogPageProcessor implements PageProcessor {
// 部分一:抓取网站的相关配置,包括编码、抓取间隔、重试次数等
private Site site = Site.me().setRetryTimes(3).setSleepTime(1000)
.setUserAgent(
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_2) AppleWebKit/537.31 (KHTML, like Gecko) Chrome/26.0.1410.65 Safari/537.31");
// .setUserAgent("Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36");
private static String username; // 设置的Csdn用户名
private static int size = 0; // 共抓取到的文章数量
// process是定制爬虫逻辑的核心接口,在这里编写抽取逻辑
public void process(Page page) {
// 部分二:定义如何抽取页面信息,并保存下来
// 如果匹配成功,说明是文章页
if(!page.getUrl().regex("http://blog\\.csdn\\.net/" + username + "/article/details/\\d+").match()){
// 添加所有文章页
page.addTargetRequests(page.getHtml().xpath("//div[@id='article_list']").links()
.regex("/" + username + "/article/details/\\d+")
.replace("/" + username + "/", "http://blog.csdn.net/" + username + "/")
.all());
// 添加其他列表页
page.addTargetRequests(page.getHtml().xpath("//div[@id='papelist']").links() // 限定其他列表页获取区域
.regex("/" + username + "/article/list/\\d+")
.replace("/" + username + "/", "http://blog.csdn.net/" + username + "/")// 巧用替换给把相对url转换成绝对url
.all());
} else {
++size;
page.putField("numbers", page.getUrl().regex("\\d+$").get());
page.putField("authors", username);
page.putField("titles", page.getHtml()
.xpath("//div[@class='article_title']//h1//span[@class='link_title']/a/text()").get());
page.putField("dates", page.getHtml()
.xpath("//div