java初级项目 小说_webmagic项目实战(爬小说网站)

本文介绍了如何使用WebMagic框架,爬取小说网站优书网的数据,包括小说名称、作者、评分等信息,并将数据持久化到本地,以便进一步构建自定义查询功能。通过定制PageProcessor和Pipeline,实现了从列表页和详情页提取目标数据,最后将数据导入Elasticsearch进行高效检索。
摘要由CSDN通过智能技术生成

正常发货正版包邮java从入门到软件

68.9元

包邮

(需用券)

去购买 >

74971ad7354243642bc8489d504c07c1.png

项目背景

小说网站优书网(http://yousuu.com/bookstore/)提供的小说查询功能不是很强大,很多高级查询功能都没有,比如想要查询出评分在8.0以上并且标签包含‘仙侠’、字数超过100万字的小说列表,查询结果按评分倒序排序。为了解决这个痛点,我们把所有小说数据(包含小说名称、评分、简介、作者等信息)爬到本地来,然后导入elasticsearch中,最后就可以构建出任何我们想要的查询了。

bVbyfCV?w=1012&h=869

bVbyfCW?w=1020&h=605

项目实战

实现分析

观察上面两张截图,可以看到列表页除了简介信息,其他信息都有;所以我们的实现思路就是从列表页提取出小说名称、作者、字数、评分、状态、标签等信息,从详情页提取出简介信息。

代码实现

通过文章《webmagic核心设计和运行机制分析》,我们已经知道在使用WebMagic框架时,因为每个页面的不同,所以必须要我们自己定制处理逻辑的组件是PageProcessor(解析html,提取目标数据)和Pipeline(持久化目标数据)。

1. Spider:程序入口,爬虫启动类

@Component

public class YousuuTask {

private static final String SITE_CODE = "yousuu";

private static final String URL = "http://www.yousuu.com/bookstore/?type&tag&countWord&status&update&sort&page=";

public void doTask() {

MySpider mySpider = MySpider.create(new YousuuProcessor());

mySpider.setDownloader(new MyDownloader(SITE_CODE));

mySpider.setScheduler(new RedisScheduler(SITE_CODE));

mySpider.addPipeline(new YousuuPipeline());

mySpider.thread(10);

int totalPage = 8187;

// 添加起始url

for(int i=1; i<=totalPage; i++) {

Request request = new Request(URL + i);

// 在Request额外信息中设置页面类型

request.putExtra(YousuuProcessor.TYPE, YousuuProcessor.LIST_TYPE);

mySpider.addRequest(request);

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值