网络爬虫开发常用框架

爬虫框架就是一些爬虫项目的半成品,可以将一些爬虫常用的功能写好,然后留一些接口,在不同的爬虫项目当中调用适合自己项目的接口,再编写少量的代码实现自己需要的功能。因为框架中已经实现了爬虫常用的功能,所以为开发人员节省了很多精力与时间。

1.Scrapy爬虫框架

Scrapy框架是一套比较成熟的Python爬虫框架,简单轻巧,并且非常方便。可以高效率地爬取web页面并从页面中提取结构化的数据。Scrapy是一套开源的框架,所以在使用时不需要担心收取费用的问题。Scrapy的官网地址为https://scrapy.org,页面如下:

 另外Scrapy开发框架对开发者提供了开发文档,文档中详细地介绍了开源框架的安装以及Scrapy的使用教程。

2.Crawley爬虫框架

Crawley也是Python开发出的爬虫框架,该框架致力于改变人们从互联网中提取数据的方式。Crawley的特性如下:

【1】基于Eventlet构件的高速网络爬虫框架

【2】可以将数据存储在关系数据库中,如Postgres、MySQL、Oracle、Sqlite。

【3】可以将爬取的数据导入为Json、Xml格式。

【4】支持非关系型数据库,如MongoDB和Couchdb

【5】支持命令行工具

【6】可以使用您喜欢的工具进行数据的提取,如Xpath或Pyquery工具

【7】支持使用Cookie登录或访问那些只有登录才可以访问的网页。

【8】简单易学

Crawley的官网地址为http://project.crawley-cloud.com.

3.PySpider爬虫框架

相对于Scrapy框架而言,PySpider框架是一支新秀。采用Python语言编写,分布式架构,支持多种数据库后端,强大的WebUI支持脚本编辑器、任务监视器、项目管理器以及结果查看器。PySpider的特性如下:

【1】Python脚本控制,可以用任何您喜欢的HTML解析包(内置pyquery)

【2】使用web界面编写调试脚本、起停脚本,监控执行状态,查看活动历史,获取结果产出。

【3】支持MySQL、MongoDB、redis、SQLite、Elasticsearch、PostgreSQL与SQLAlchemy。

【4】支持RabbitMQ、Beanstalk、Redis和Kombu作为消息队列。

【5】支持抓取JavaScript的页面

【6】强大的调度控制,支持超时重爬及优先级设置

【7】组件可替换,支持单机/分布式部署,支持Docker部署。

PySpider源码地址为https://github.com/binux/pyspider/releases.

开发文档地址为:http://docs.pyspider.org/。

 

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
WebCollector是一个无须配置、便于二次开发的Java爬虫框架(内核),它提供精简的的API,只需少量代码即可实现一个功能强大的爬虫。WebCollector-Hadoop是WebCollector的Hadoop版本,支持分布式爬取。 WebCollector致力于维护一个稳定、可扩的爬虫内核,便于开发者进行灵活的二次开发。内核具有很强的扩展性,用户可以在内核基础上开发自己想要的爬虫。源码中集成了Jsoup,可进行精准的网页解析。2.x版本中集成了selenium,可以处理JavaScript生成的数据。 WebCollector特性: 1、自定义遍历策略,可完成更为复杂的遍历业务,例如分页、AJAX 2、可以为每个 URL 设置附加信息(MetaData),利用附加信息可以完成很多复杂业务,例如深度获取、锚文本获取、引用页面获取、POST 参数传递、增量更新等。 3、使用插件机制,用户可定制自己的Http请求、过滤器、执行器等插件。 4、内置一套基于内存的插件(RamCrawler),不依赖文件系统或数据库,适合一次性爬取,例如实时爬取搜索引擎。 5、内置一套基于 Berkeley DB(BreadthCrawler)的插件:适合处理长期和大量级的任务,并具有断点爬取功能,不会因为宕机、关闭导致数据丢失。 6、集成 selenium,可以对 JavaScript 生成信息进行抽取 7、可轻松自定义 http 请求,并内置多代理随机切换功能。 可通过定义 http 请求实现模拟登录。 8、使用 slf4j 作为日志门面,可对接多种日志 9、使用类似Hadoop的Configuration机制,可为每个爬虫定制配置信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

mez_Blog

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值