爬虫框架Webmagic源码分析之Spider

本系列文章,针对Webmagic 0.6.1版本

一个普通爬虫启动代码

public static void main(String[] args) {
    Spider.create(new GithubRepoPageProcessor())
            从https:github.com/code4craft开始抓    
            .addUrl("https://github.com/code4craft")
            //设置Scheduler,使用Redis来管理URL队列
            .setScheduler(new RedisScheduler("localhost"))
            //设置Pipeline,将结果以json方式保存到文件
            .addPipeline(new JsonFilePipeline("D:\\data\\webmagic"))
            //开启5个线程同时执行
            .thread(5)
            //启动爬虫
            .run();
}

10214101_11Dn.png

1、spider可配置插拔组件:

Downloader 提供自定义的Downloader,默认为HttpClientDownloader
Pipeline 提供自定义的Pipeline,可以配置多个,多个Pipeline链式处理结果。默认为ConsolePipeline
Scheduler 提供自定义的调度器,默认为QueueScheduler
PageProcessor 页面处理组件,开发者爬虫的实现
ExecutorService 可以用于提供自己实现的线程池来监控,默认为Fixed ExecutorService
SpiderListener 页面状态监听器,提供每个页面成功和错误的回调。可配置多个。

其中有:WebMagic四大组件:Pipeline,Scheduler,Downloader和PageProcesser 。这和Python中的Scrapy的理念是一致的。但是Scrapy还有一些中间件的概念,从结构图中便可以看出区别

scrapy_backbone.png

2、状态变量:

stat 0,初始化;1,运行中;2,已停止
pageCount 已经抓取的页面数。注意:这里统计的是GET请求的页面,POST请求的页面不在统计的范围之内。具体原因见DuplicateRemovedScheduler类
startTime:开始时间,可用于计算耗时。
emptySleepTime 最大空闲等待时间,默认30s。如果抓取队列为空,且url队列为空的最大等待时长,超过该时间,就认为爬虫抓取完成,停止运行。
threadNum : 启用的线程数,默认1.
threadPool:这是Webmagic提供的CountableThreadPool实例,内部封装了ExecutorService,CountableThreadPool 提供了额外的获取线程运行数的方法,此外为防止大量urls入池等待,提供了阻塞方式管理urls入池。(后续细说)
destroyWhenExit:默认true。是否在调用stop()时立即停止所有任务并退出。
spawUrl : 默认为true,是否抓取除了入口页面starturls之外的其他页面(targetRequests).

3、需要配置的项:

Site 全局站点配置,如UA,timeout,sleep等
PageProcessor 页面处理组件,开发者爬虫的实现
Request 配置入口页面url,可以多个。
uuid ,可选,Spider的名字,用于分析和日志。

需要注意的是:每个修改配置的方法都进行了checkIfRunning检查,如果检查当前Spider正在运行,它会抛出IllegalStateException。

所有配置方法都return this,便于链式调用,类似于builder模式。

4、运行方式:

Spider实现了Runnable接口(还有一个Webmagic自己的Task接口)。
run(),跟普通的Runnable一样,阻塞式运行,会阻塞当前线程直至Spider运行结束。
runAsync(),就是new一个Thread来运行当前Spider这个Runnable,异步运行。
start(),runAsync()的别名方法,异步运行。

5、状态相关方法

stop(),结束当前爬虫的运行,内部只是简单地修改一下状态,如果设置了destroyWhenExit=true(默认就是true)那么会立即停止所有任务并清除资源,否则并不会停止正在线程池中运行的线程,也不会销毁线程池。

getThreadAlive() 获取正在运行的线程数,用于状态监控。

6、核心代码分析

public void run() {
        checkRunningStat();
        initComponent();
        logger.info("Spider " + getUUID() + " started!");
        while (!Thread.currentThread().isInterrupted() && stat.get() == STAT_RUNNING) {
            final Request request = scheduler.poll(this);
            if (request == null) {
                if (threadPool.getThreadAlive() == 0 && exitWhenComplete) {
                    break;
                }
                // wait until new url added
                waitNewUrl();
            } else {
                threadPool.execute(new Runnable() {
                    @Override
                    public void run() {
                        try {
                            processRequest(request);
                            onSuccess(request);
                        } catch (Exception e) {
                            onError(request);
                            logger.error("process request " + request + " error", e);
                        } finally {
                            pageCount.incrementAndGet();
                            signalNewUrl();
                        }
                    }
                });
            }
        }
        stat.set(STAT_STOPPED);
        // release some resources
        if (destroyWhenExit) {
            close();
        }
    }

首先通过checkRunningStat()来检查并设置运行状态,如果已经在运行了,那么会抛出IllegalStateException。之后初始化组件(主要是初始化Downloader、线程池、将starturls push到Scheduler中,初始化开始时间等)。之后进入循环,从scheduler中poll出Request给线程池去执行。如果scheduler中没有request了:继而判断是否有线程在运行和是否设置了立即退出标志,如果设置了立即退出循环,否则调用waitNewUrl()等待有新的url被加入。
waitNewUrl()采用RetreentLock和Condition来进行超时阻塞,一旦阻塞时间超过emptySleepTime就返回。如果线程池中运行线程数量为0,并且exitWhenComplete=true(默认),那么就停止退出,结束爬虫。如果exitWhenComplete=false,那么需要开发者手动调用stop()来停止退出爬虫,并调用close()来清理资源。

通过processRequest来处理抓取url的整个流程,代码如下:

protected void processRequest(Request request) {
        Page page = downloader.download(request, this);
        if (page == null) {
            sleep(site.getSleepTime());
            onError(request);
            return;
        }
        // for cycle retry
        if (page.isNeedCycleRetry()) {
            extractAndAddRequests(page, true);
            sleep(site.getRetrySleepTime());
            return;
        }
        pageProcessor.process(page);
        extractAndAddRequests(page, spawnUrl);
        if (!page.getResultItems().isSkip()) {
            for (Pipeline pipeline : pipelines) {
                pipeline.process(page.getResultItems(), this);
            }
        }
        //for proxy status management
        request.putExtra(Request.STATUS_CODE, page.getStatusCode());
        sleep(site.getSleepTime());
    }

它在内部调用downloader下载页面得到Page(Page代表了一个页面),然后判断是否需要重试(needCycleRetry标志会在downloader下载页面发生异常时被设置为true,同时会把自己本身request加到targetRequests当中),如果需要,则抽取targetRequests到scheduler当中。如果都没问题,继续调用我们实现的页面处理器进行处理,之后再抽取我们在页面处理器中放入的targetRequests(即需要继续抓取的url)到scheduler当中。之后便是调用pipeline进行处理(一般做持久化操作,写到数据库、文件之类的),但是如果我们在页面处理器中为page设置了skip标志,那么就不会调用pipeline进行处理。
当然其中还包括一些重试休眠时间、继续抓取等待时间等来更好地控制爬虫抓取频率。

说完processRequest,我们回到run()继续分析,处理完之后,就是调用监听器,告诉其成功还是失败,最后抓取数加+1,然后通知新url被加入(通知waitNewUrl()可以返回继续了)。

需要说明的一点是,Spider类中的状态管理大量用到了Jdk Atomic原子包下的CAS并发原子类。

7、CountableThreadPool

前面说过Spider采用的线程池对象CountableThreadPool内部封装了ExecutorService,CountableThreadPool 提供了额外的获取线程运行数的方法,此外为防止大量urls入池等待,提供了阻塞方式管理urls入池。
阻塞方式的实现是通过ReentrantLock和它的Condition来实现的。具体代码如下:

public void execute(final Runnable runnable) {
        if (threadAlive.get() >= threadNum) {
            try {
                reentrantLock.lock();
                while (threadAlive.get() >= threadNum) {
                    try {
                        condition.await();
                    } catch (InterruptedException e) {
                    }
                }
            } finally {
                reentrantLock.unlock();
            }
        }
        threadAlive.incrementAndGet();
        executorService.execute(new Runnable() {
            @Override
            public void run() {
                try {
                    runnable.run();
                } finally {
                    try {
                        reentrantLock.lock();
                        threadAlive.decrementAndGet();
                        condition.signal();
                    } finally {
                        reentrantLock.unlock();
                    }
                }
            }
        });
    }

逻辑是这样的,如果正在运行的线程数threadAlive超过允许的线程数,就阻塞等待,直至收到某个线程结束通知。

罗嗦一句,这里的线程安全控制,主要是用到了JDK atomic包来表示状态和ReentrantLock、Condition来控制达到类似生产者消费者的阻塞机制。

关于Spider就分析到这里,后续主题待定。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值