Nutch 1.3 学习笔记 5-1 FetchThread


上一节看了Fetcher中主要几个类的实现,这一节会来分析一下其中用到的消费者FetcherThread,来看看它是干嘛的。


1. Fetcher的Mapp模型

Fetcher.java代码中可以看到,Fetcher继承自MapRunable,它是Mapper的抽象接口,实现这个接口的子类能够更好的对Map的流程进行控制,包括多线程与异步Maper。


1.1 Fetcher的入口函数fetch(Path segment,int threads, boolean parsing)

下面是它的源代码,来分析一下:

[html]  view plain copy
  1. // 对配置进行检测,看一些必要的配置是否已经配置了,如http.agent.name等参数  
  2.         checkConfiguration();  
  3.   
  4.   
  5.         // 记录fetch的开始时间  
  6.         SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");  
  7.         long start = System.currentTimeMillis();  
  8.         if (LOG.isInfoEnabled()) {  
  9.             LOG.info("Fetcher: starting at " + sdf.format(start));  
  10.           LOG.info("Fetcher: segment: " + segment);  
  11.         }  
  12.   
  13.   
  14.         // 这里对抓取的时候进行限制,在FetchItemQueue中会用到这个参数  
  15.         // set the actual time for the timelimit relative  
  16.         // to the beginning of the whole job and not of a specific task  
  17.         // otherwise it keeps trying again if a task fails  
  18.         long timelimit = getConf().getLong("fetcher.timelimit.mins", -1);  
  19.         if (timelimit != -1) {  
  20.           timelimit = System.currentTimeMillis() + (timelimit * 60 * 1000);  
  21.           LOG.info("Fetcher Timelimit set for : " + timelimit);  
  22.           getConf().setLong("fetcher.timelimit", timelimit);  
  23.         }  
  24.           
  25.         // 生成一个Nutch的Map-Reduce配置  
  26.         JobConf job = new NutchJob(getConf());  
  27.         job.setJobName("fetch " + segment);  
  28.       
  29.         // 配置抓取线程数,  
  30.         job.setInt("fetcher.threads.fetch", threads);  
  31.         job.set(Nutch.SEGMENT_NAME_KEY, segment.getName());  
  32.         // 配置是否对抓取的内容进行解析  
  33.         job.setBoolean("fetcher.parse", parsing);  
  34.       
  35.         // for politeness, don't permit parallel execution of a single task  
  36.         job.setSpeculativeExecution(false);  
  37.       
  38.         // 配置输出的路径名  
  39.         FileInputFormat.addInputPath(job, new Path(segment, CrawlDatum.GENERATE_DIR_NAME));  
  40.         // 配置输入的文件格式,这里类继承自SequenceFileInputFormat  
  41.         // 它主要是覆盖了其getSplits方法,其作用是不对文件进行切分,以文件数量作为splits的依据  
  42.         // 就是有几个文件,就有几个Map操作  
  43.         job.setInputFormat(InputFormat.class);  
  44.       
  45.         // 配置Map操作的类  
  46.         job.setMapRunnerClass(Fetcher.class);  
  47.       
  48.         // 配置输出路径  
  49.         FileOutputFormat.setOutputPath(job, segment);  
  50.         // 这里配置输出文件方法,这个类在前面已经分析过  
  51.         job.setOutputFormat(FetcherOutputFormat.class);  
  52.         // 配置输出<key,value>类型  
  53.         job.setOutputKeyClass(Text.class);  
  54.         job.setOutputValueClass(NutchWritable.class);  
  55.       
  56.         JobClient.runJob(job);  

1.2 Fetcher的run方法分析

  这个是Map类的入口,用于启动抓取的生产者与消费者,下面是部分源代码:

[html]  view plain copy
  1. // 生成生产者,用于读取Generate出来的CrawlDatum,把它们放到共享队列中  
  2.     feeder = new QueueFeeder(input, fetchQueues, threadCount * 50);  
  3.     //feeder.setPriority((Thread.MAX_PRIORITY + Thread.NORM_PRIORITY) / 2);  
  4.     
  5.     // the value of the time limit is either -1 or the time where it should finish  
  6.     long timelimit = getConf().getLong("fetcher.timelimit", -1);  
  7.     if (timelimit != -1) feeder.setTimeLimit(timelimit);  
  8.     feeder.start();  
  9.   
  10.   
  11.     // set non-blocking & no-robots mode for HTTP protocol plugins.  
  12.     getConf().setBoolean(Protocol.CHECK_BLOCKING, false);  
  13.     getConf().setBoolean(Protocol.CHECK_ROBOTS, false);  
  14.     
  15. // 启动消费者线程  
  16.     for (int i = 0; i < threadCount; i++) {       // spawn threads  
  17.       new FetcherThread(getConf()).start();  
  18.     }  
  19.   
  20.   
  21.     // select a timeout that avoids a task timeout  
  22.     long timeout = getConf().getInt("mapred.task.timeout", 10*60*1000)/2;  
  23.   
  24.   
  25. // 这里用一个循环来等待线程结束  
  26.     do {                                          // wait for threads to exit  
  27.       try {  
  28.         Thread.sleep(1000);  
  29.       } catch (InterruptedException e) {}  
  30.   
  31.   
  32.     // 这个函数是得到相前线程的抓取状态,如抓取了多少网页,多少网页抓取失败,抓取速度是多少  
  33.       reportStatus();  
  34.         LOG.info("-activeThreads=" + activeThreads + "spinWaiting=" + spinWaiting.get()  
  35.             + ", fetchQueues.totalSize=" + fetchQueues.getTotalSize());  
  36.   
  37.   
  38. // 输出抓取队列中的信息  
  39.      if (!feeder.isAlive() && fetchQueues.getTotalSize() < 5) {  
  40.        fetchQueues.dump();  
  41.      }  
  42.       
  43.     // 查看timelimit的值,这里只要返回的hitByTimeLimit不为0,checkTimelimit方法会清空抓取队列中的所有数据  
  44.      // check timelimit  
  45.      if (!feeder.isAlive()) {  
  46.         int hitByTimeLimit = fetchQueues.checkTimelimit();  
  47.          if (hitByTimeLimit != 0) reporter.incrCounter("FetcherStatus",  
  48.             "hitByTimeLimit", hitByTimeLimit);  
  49.      }  
  50.       
  51.     // 查看抓取抓取线程是否超时,如果超时,就退出等待  
  52.         // some requests seem to hang, despite all intentions  
  53.         if ((System.currentTimeMillis() - lastRequestStart.get()) > timeout) {  
  54.         if (LOG.isWarnEnabled()) {  
  55.           LOG.warn("Aborting with "+activeThreads+" hung threads.");  
  56.         }  
  57.         return;  
  58.         }  
  59.   
  60.   
  61.     } while (activeThreads.get() > 0);  
  62.     LOG.info("-activeThreads=" + activeThreads);  

2. Fetcher.FetcherThread

2.1 这个类主要是用来从队列中得到FetchItem,下面来看一下其run方法,其大概做了几件事:

  • 从抓取队列中得到一个FetchItem,如果返回为null,判断生产者是否还活着或者队列中是否还有数据,  如果队列中还有数据,那就等待,如果上面条件没有满足,就认为所有FetchItem都已经处理完了,退出当前抓取线程
  • 得到FetchItem, 抽取其url,从这个url中分析出所使用的协议,调用相应的plugin来解析这个协议
  • 得到相当url的robotRules,看是否符合抓取规则,如果不符合或者其delayTime大于我们配置的maxDelayTime,那就不抓取这个网页
  • 对网页进行抓取,得到其抓取的Content和抓取状态,调用FetchItemQueues的finishFetchItem方法,表明当前url已经抓取完成
  • 根据抓取协议的状态来进行下一步操作
    1. 如果状态为WOULDBLOCK,那就进行retry,把当前url放加FetchItemQueues中,进行重试
    2. 如果是MOVED或者TEMP_MOVED,这时这个网页可以被重定向了,对其重定向的内容进行解析,得到重定向的网址,这时要生成一个新的FetchItem,根据其QueueID放到相应的队列的inProgress集合中,然后再对这个重定向的网页进行抓取
    3. 如果状态是EXCEPTION,对当前url所属的FetchItemQueue进行检测,看其异常的网页数有没有超过最大异常网页数,如果大于,那就清空这个队列,认为这个队列中的所有网页都有问题。
    4. 如果状态是RETRY或者是BLOCKED,那就输出CrawlDatum,将其状态设置成STATUS_FETCH_RETRY,在下一轮进行重新抓取
    5. 如果状态是GONE,NOTFOUND,ACCESS_DENIED,ROBOTS_DENIED,那就输出CrawlDatum,设置其状态为STATUS_FETCH_GONE,可能在下一轮中就不进行抓取了,
    6. 如果状态是NOTMODIFIED,那就认为这个网页没有改变过,那就输出其CrawlDatum,将其状态设成成STATUS_FETCH_NOTMODIFIED.
    7. 如果所有状态都没有找到,那默认输出其CrawlDatum,将其状态设置成STATUS_FETCH_RETRY,在下一轮抓取中再重试
  • 判断网页重定向的次数,如果超过最大重定向次数,就输出其CrawlDatum,将其状态设置成STATUS_FETCH_GONE

这里有一些细节没有说明,如网页被重定向以后如果操作,相应的协议是如果产生的,这个是通过插件产生的,具体插件是怎么调用的,这里就不说了,以后有机会会再分析一下。


2.2 下面分析FetcherThread中的另外一个比较重要的方法,就是output

具体这个output大概做了如下几件事:
  • 判断抓取的content是否为空,如果不为空,那调用相应的解析插件来对其内容进行解析,然后就是设置当前url所对应的CrawlDatum的一些参数,如当前内容的MD5码,分数等信息
  • 然后就是使用FetchOutputFormat输出当前url的CrawlDatum,Content和解析的结果ParseResult
下面分析一下FetcherOutputFormat中所使用到的ParseOutputFormat.RecordWriter
在生成相应的ParseOutputFormat的RecordWriter过程中,这个RecordWriter会再生成三个RecordWriter来写出parse_text(MapFile),parse_data(MapFile)和crawl_parse(SequenceFile),我们在segments下具体的segment中看到的三个这样的目录就是这个对象生成的,分别输出了网页的源代码;网页的解析数据,如网页title、外链接、元数据、状态等信息,这里会对外链接进行过滤、规格化,并且用插件计算每一个外链接的初始分数;另一个是网页解析后的CrawlDatum对象,这里会分析当前CrawlDatum中的metadata,从中生成两种新的CrawlDatum,还有就是它会对外链接生成相应的CrawlDatum,放入crawl_parse目录中,这里我还没有看明白。




3. 总结

有点晕了,这里的代码有点复杂,我们来整理一下思路。

3.1 从目录生成的角度 

  • 从Generate后会在segments目录下生成一些要抓取的具体的segment,这里每一个segment下会有一个叫crawl_generate的目录,其中放着要抓取CrawlDatum信息
  • 在Fetch的时候,会输出另外五个目录
    1. content: 这个目录只有在配置了要输出抓取内容时才会输出
    2. crawl_fetch: 这个目录是输出抓取成功后的CrawlDatum信息,这里是对原来crawl_generate目录中的信息进行了一些修改,下面三个目录只有配置了解析参数后才会输出,如果后面调用bin/nutch parse命令
    3. parse_text: 这个目录存放了抓取的网页内容,以提后面建立索引用
    4. parse_data: 这里存入了网页解析后的一些数据,如网页title,外链接信息等
    5. crawl_parse: 这里存储了一些新生成的CrawlDatum信息,如外链接等,以供下一次迭代抓取使用


3.2 从数据流的角度

  • Generate生成的CrawlDatum数据首先经过QueueFeeder生产者,放入共享队列
  • 多个消费者(FetcherThread)从共享队列中取得要抓取的FetchItem数据
  • 对FetchItem所对应的url进行抓取,得到相应的抓取内容,对抓取的状态进行判断,回调相应的操作
  • 对抓取的内容进行解析,产生网页的外链接,生成新的CrawlDatum抓取数据,产生解析后的数据
  • 调用FetcherOutputFormat.Writer对象,把CrawlDatum,Content,ParseResult分别写入crawl_fetch,content,(parse_text,parse_data,crawl_parse)目录中

好了,Fetcher的分析也差不多了,可能有一些细节还没有分析到,下面有机会再补上吧。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值