java爬虫Demo——webMagic

        我们当下生活在信息化时代,信息数据成为一种重要资源,而比较火热的大数据就是基于数据进行算法分析。而爬虫就是一种获取数据的一种方法,我本人最近刚好有空闲时间玩爬虫,借此文章为初学者引导以及自我记忆。我选取的小巧灵活的webMagic框架进行实践。


写在前面
1.注意每次访问页面后最好线程sleep一点时间(不要因为我们的随便练手影响到你爬取数据网站的运转,大家都是程序员,别逼人家提高反爬难度,下一章会对一些常见反爬手段进行破解)

2.jdk环境

3.maven 引入依赖

<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-core</artifactId>
<version>0.7.3</version>
</dependency>
<dependency>
<groupId>us.codecraft</groupId>
<artifactId>webmagic-extension</artifactId>
<version>0.7.3</version>

</dependency>

demo:爬取csdn博客信息

目标网站:https://blog.csdn.net/caihaijiang/article/list/1?

其实整个过程就是在访问及下载页面以及解析页面标签,底层实现使用了HttpClient进行网络访问

代码:

package demo;

import us.codecraft.webmagic.Page;
import us.codecraft.webmagic.Site;
import us.codecraft.webmagic.Spider;
import us.codecraft.webmagic.processor.PageProcessor;

import java.util.List;

public class CsdnBlogSplider implements PageProcessor {

    private Site site = Site
            .me()
            .setDomain("https://blog.csdn.net")
            .setSleepTime(3000)
            .setUserAgent(
                    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.110 Safari/537.36");

    public void process(Page page){

        //具体博客页面解析
        if(page.getUrl().get().startsWith("https://blog.csdn.net/caihaijiang/article/details")){

            //这里进行标签解析,根据你需要的字段的位置进行标签定位
            String subject = page.getHtml().xpath("//h6[@class='title-article']").get().replace("<h6 class=\"title-article\">","").replace("</h6>","");
            String time = page.getHtml().xpath("//div[@class='article-bar-top d-flex']/span").replace("<span class=\"time\">","").replace("</span>","").toString();
            String readNum = page.getHtml().xpath("//div[@class='article-bar-top d-flex']/div[1]/span").replace("<span class=\"read-count\">","").replace("</span>","").toString();

            System.out.println(subject);
            System.out.println(time);
            System.out.println(readNum);

            try{
                Thread.sleep(1000);
            }catch (InterruptedException in){
                System.out.println("线程出错···");
            }
        }else {
            //列表页面解析,当前页所有博客url添加进解析列表
            page.addTargetRequests(page.getHtml().xpath("//div[@class='article-item-box csdn-tracking-statistics']/h4/a").links().all());
        }
    }

    public Site getSite() {
        return site;
    }

    public static void main(String[] args) {

        Spider spider = Spider.create(new CsdnBlogSplider());
        //共7页,添加7次列表页url
        for (int i = 1; i < 8; i++) {
            spider.addUrl("https://blog.csdn.net/caihaijiang/article/list/"+i+"?");
        }
        spider.run();
    }
}复制代码

结果:


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值