基于Web-Harvest抓取百度的搜索结果(二)

1. 背景

    在之前一个文档中(http://leeqianjun.iteye.com/admin/blogs/263868)描述了怎么通过WEB-Harvest进行精确提取所需的网页信息的方法,并抓取的信息存储到文件中。

   但是我们实际的运用中,我们并不需要通过中间文件的中转,希望直接把抓取的信息存储到DB中或者进行业务处理,那怎么做呢?

2.具体做法

   实际上比较简单,Web-Harvest提供了一个 ScraperContext , 可以在该上下文中设置Java对象,可以通过Java对象收集相应的结果数据,(比如:设置Map,可以通过Map收集数据)

   Scraper 提供了这样的方法:

 

scraper.getContext().put("startPageHref", “http://www.baidu.com/s?cl=3&wd=儿童玩具");

 

   比如我们在上下文中:

   

scraper.getContext().put("resDataSet", new ResultDataSet());

 

   在相应的配置文件中就可以通过

  

${resDataSet.addRecord("searchResult","totalSearchResult",totalSearchResult)};

 

   方式来调用注入的变量。

 

  

   当爬虫执行完毕后,可以通过下面的代码返回收集的信息:

  

  

ResultDataSet resultDataSet = (ResultDataSet)scraper.getContext().get("resDataSet");

 

    即可以利用里面的数据信息。

 

   附件为一个提取百度的搜索结果的例子。

 

  

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值