搜索引擎与爬虫结合的示例:书虫找书

      这是我做的一款用于在网上搜索小说的小项目,我的具体设计是使用的一个搜索引擎模块与网络爬虫的结合。我的设想是让它和那种网上的专门用于寻找百度云盘资源的小工具类似的效果。

      当你在页面上输入想要的资源的时候,会将所有有关于这个电子书的资源的链接返回到页面上,它将不局限于只是在网盘或者小说网站上,并且会将所有的用户并不太愿意接受的链接过滤掉,比如将某些要付费的就可以过滤掉。

      项目预计思路是通过页面输入小说名字之后,会启动爬虫,在网络上进行抓取,再使用搜索引擎的这个模块进行分析,进行过滤,并将过滤之后的结果链接返回到用户界面上。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值