数据篇-爬虫开源框架推荐

本文列举了多个主流的开源爬虫框架,包括Scrapy、WebMagic和Crawlab等,以及一些爬虫周边功能如spider-flow图形化框架和scrapy-redis缓存组件。这些工具覆盖了Python、Java和Golang等编程语言,适用于不同需求的爬虫开发。
摘要由CSDN通过智能技术生成

花了一天的时间调研了一下主流的开源技术框架。

经过反复查看关键指标和技术框架的扩展性,筛选了一些实用的开源框架。


爬虫框架

项目

项目简介

贡献者数

主要语言

第一次发版时间

Scrapy

Scrapy 是一种快速的高性能网络爬虫框架,用于抓取网站并从其页面中提取结构化数据。 众多爬虫都是基于她开发的。广泛应用于从数据挖掘、数据监控和自动化测试。

502

python

2016-10-03

webmagic

webmagic是一个开源的Java垂直爬虫框架,目标是简化爬虫的开发流程,让开发者专注于逻辑功能的开发。webmagic的简化了爬虫的流程,如果您是一个java的忠实拥护者,她是一个很好的学习和使用框架。

44

java

2013-8-20

crawlab

基于Golang的分布式爬虫管理平台,支持Python、NodeJS、Go、Java、PHP等多种编程语言以及多种爬虫框架。

27

go

2019-4-23

crawlee

Crawlee 是 使用TypeScript基于Apify SDK 开发的爬虫框架,在防阻塞功能上有所努力并取得进展。

具备模仿模仿人的行为学特性,能够突破一般的反扒识别技术。Crawlee 是提供了抓取网络链接、抓取数据并将其存储到磁盘或云中的工具。

57

typescrip

2019-7-9

katana

自称为下一代爬虫框架,使用Golang语言开发,值得关注。

15

go

2022-11-7


爬虫周边功能

项目

项目简介

贡献者数

最后一次版本

spider-flow

图形化爬虫流程框架,可以算是爬虫的低代码平台。2020年上半年停止更新。

17

2020-4-13

WechatSogou

基于搜狗微信搜索的微信公众号爬虫接口。18年停更,有借鉴意义。

10

2018-5-5

scrapy-redis

Scrapy 的redis 缓存组件

29

N.A.

ECommerceCrawlers

针对国内互联网大厂网站的爬虫,22年上半年停更,感兴趣可以去调研一下。

14

2022-3-6

Crawler_Illegal_Cases_In_China

国内爬虫合规相关的文档

1

N.A.

GoogleScraper

搜索引擎爬虫,支持多搜索引擎(Google、Yandex、Bing、Duckduckgo 等)

11

2020-5-12


如果感觉对您有帮助的话,请关注,点赞,收藏,转发,您的鼓励是我最大的动力。

YayCrawler是一个基于WebMagic开发的分布式通用爬虫框架,开发语言是Java。我们知道目前爬虫框架很多,有简单的,也有复杂的,有轻 量型的,也有重量型的。您也许会问:你这个爬虫框架的优势在哪里呢?额,这个是一个很重要的问题!在这个开中,我先简单的介绍一下我这个爬虫框架的特 点,后面的章幅会详细介绍并讲解它的实现,一图胜千言:1、分布式:YayCrawler就是一个大哥(Master)多个小弟(Worker)的架构(这种结构才是宇宙的真理),当然大哥还有一个小秘(Admin)和外界交往。2、通用性:我们很多时候需要爬取不同网站的数据,各个网站的结构和内容都有很大的差别,基本上大部分人都是遇到一个网站写一份代码,没法做到工具 的复用。YayCrawler就是想改变这种情况,把不同的部分抽象出来,用规则来指导爬虫做事。也就是说用户可以在界面上配置如何抓取某个页面的数据的 规则,等爬虫在爬取这个页面的时候就会用这个事先配置好的规则来解析数据,然后把数据持久化。3、可扩展的任务队列:任务队列由Redis实现,根据任务的状态有四种不同的任务队列:初始、执行中、成功、失败。您也可以扩展不同的任务调度算法,默认是公平调度。4、可定义持久化方式:爬取结果中,属性数据默认持久化到MongoDB,图片会被下载到文件服务器,当然您可以扩展更多的存储方式。5、稳定和容错:任何一个失败的爬虫任务都会重试和记录,只有任务真正成功了才会被移到成功队列,失败会有失败的原因描述。6、反监控组件:网站为了防止爬虫也是煞费苦心,想了一系列的监控手段来反爬虫。作为对立面,我们自然也要有反监控的手段来保障我们的爬虫任务,目前主要考虑的因素有:cookie失效(需要登陆)、刷验证码、封IP(自动换代理)。7、可以对任务设置定时刷新,比如隔一天更新某个网站的数据。作者博客地址:http://www.cnblogs.com/yuananyun 标签:爬虫
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值