Python 爬虫的工具列表

转载 2016年08月31日 09:51:24

本文转载自伯乐在线:http://python.jobbole.com/82633/

这个列表包含与网页抓取和数据处理的Python库

网络

  • 通用

    • urllib -网络库(stdlib)。

    • requests -网络库。

    • grab - 网络库(基于pycurl)。

    • pycurl - 网络库(绑定libcurl)。

    • urllib3 - Python HTTP库,安全连接池、支持文件post、可用性高。

    • httplib2 - 网络库。

    • RoboBrowser - 一个简单的、极具Python风格的Python库,无需独立的浏览器即可浏览网页。

    • MechanicalSoup -一个与网站自动交互Python库。

    • mechanize -有状态、可编程的Web浏览库。

    • socket - 底层网络接口(stdlib)。

    • Unirest for Python - Unirest是一套可用于多种语言的轻量级的HTTP库。

    • hyper - Python的HTTP/2客户端。

    • PySocks - SocksiPy更新并积极维护的版本,包括错误修复和一些其他的特征。作为socket模块的直接替换。

  • 异步

    • treq - 类似于requests的API(基于twisted)。

    • aiohttp - asyncio的HTTP客户端/服务器(PEP-3156)。

网络爬虫框架

  • 功能齐全的爬虫

    • grab - 网络爬虫框架(基于pycurl/multicur)。

    • scrapy - 网络爬虫框架(基于twisted),不支持Python3。

    • pyspider - 一个强大的爬虫系统。

    • cola - 一个分布式爬虫框架。

  • 其他

    • portia - 基于Scrapy的可视化爬虫。

    • restkit - Python的HTTP资源工具包。它可以让你轻松地访问HTTP资源,并围绕它建立的对象。

    • demiurge - 基于PyQuery的爬虫微框架。

HTML/XML解析器

  • 通用

    • lxml - C语言编写高效HTML/ XML处理库。支持XPath。

    • cssselect - 解析DOM树和CSS选择器。

    • pyquery - 解析DOM树和jQuery选择器。

    • BeautifulSoup - 低效HTML/ XML处理库,纯Python实现。

    • html5lib - 根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。

    • feedparser - 解析RSS/ATOM feeds。

    • MarkupSafe - 为XML/HTML/XHTML提供了安全转义的字符串。

    • xmltodict - 一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。

    • xhtml2pdf - 将HTML/CSS转换为PDF。

    • untangle - 轻松实现将XML文件转换为Python对象。

  • 清理

    • Bleach - 清理HTML(需要html5lib)。

    • sanitize - 为混乱的数据世界带来清明。

文本处理

用于解析和操作简单文本的库。

  • 通用

    • difflib - (Python标准库)帮助进行差异化比较。

    • Levenshtein - 快速计算Levenshtein距离和字符串相似度。

    • fuzzywuzzy - 模糊字符串匹配。

    • esmre - 正则表达式加速器。

    • ftfy - 自动整理Unicode文本,减少碎片化。

  • 转换

    • unidecode - 将Unicode文本转为ASCII。

  • 字符编码

    • uniout - 打印可读字符,而不是被转义的字符串。

    • chardet - 兼容 Python的2/3的字符编码器。

    • xpinyin - 一个将中国汉字转为拼音的库。

    • pangu.py - 格式化文本中CJK和字母数字的间距。

  • Slug化

    • awesome-slugify - 一个可以保留unicode的Python slugify库。

    • python-slugify - 一个可以将Unicode转为ASCII的Python slugify库。

    • unicode-slugify - 一个可以将生成Unicode slugs的工具。

    • pytils - 处理俄语字符串的简单工具(包括pytils.translit.slugify)。

  • 通用解析器

    • PLY - lex和yacc解析工具的Python实现。

    • pyparsing - 一个通用框架的生成语法分析器。

  • 人的名字

  • 电话号码

    • phonenumbers -解析,格式化,存储和验证国际电话号码。

  • 用户代理字符串

特定格式文件处理

解析和处理特定文本格式的库。

  • 通用

    • tablib - 一个把数据导出为XLS、CSV、JSON、YAML等格式的模块。

    • textract - 从各种文件中提取文本,比如 Word、PowerPoint、PDF等。

    • messytables - 解析混乱的表格数据的工具。

    • rows - 一个常用数据接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT – 将来还会提供更多!)。

  • Office

    • python-docx - 读取,查询和修改的Microsoft Word2007/2008的docx文件。

    • xlwt / xlrd - 从Excel文件读取写入数据和格式信息。

    • XlsxWriter - 一个创建Excel.xlsx文件的Python模块。

    • xlwings - 一个BSD许可的库,可以很容易地在Excel中调用Python,反之亦然。

    • openpyxl - 一个用于读取和写入的Excel2010 XLSX/ XLSM/ xltx/ XLTM文件的库。

    • Marmir - 提取Python数据结构并将其转换为电子表格。

  • PDF

    • PDFMiner - 一个从PDF文档中提取信息的工具。

    • PyPDF2 - 一个能够分割、合并和转换PDF页面的库。

    • ReportLab - 允许快速创建丰富的PDF文档。

    • pdftables - 直接从PDF文件中提取表格。

  • Markdown

    • Python-Markdown - 一个用Python实现的John Gruber的Markdown。

    • Mistune - 速度最快,功能全面的Markdown纯Python解析器。

    • markdown2 - 一个完全用Python实现的快速的Markdown。

  • YAML

    • PyYAML - 一个Python的YAML解析器。

  • CSS

  • ATOM/RSS

  • SQL

    • sqlparse - 一个非验证的SQL语句分析器。

  • HTTP

  • HTTP

    • http-parser - C语言实现的HTTP请求/响应消息解析器。

  • 微格式

    • opengraph - 一个用来解析Open Graph协议标签的Python模块。

  • 可移植的执行体

    • pefile - 一个多平台的用于解析和处理可移植执行体(即PE)文件的模块。

  • PSD

    • psd-tools - 将Adobe Photoshop PSD(即PE)文件读取到Python数据结构。

自然语言处理

处理人类语言问题的库。

  • NLTK -编写Python程序来处理人类语言数据的最好平台。

  • Pattern - Python的网络挖掘模块。他有自然语言处理工具,机器学习以及其它。

  • TextBlob - 为深入自然语言处理任务提供了一致的API。是基于NLTK以及Pattern的巨人之肩上发展的。

  • jieba - 中文分词工具。

  • SnowNLP - 中文文本处理库。

  • loso - 另一个中文分词库。

  • genius - 基于条件随机域的中文分词。

  • langid.py - 独立的语言识别系统。

  • Korean - 一个韩文形态库。

  • pymorphy2 - 俄语形态分析器(词性标注+词形变化引擎)。

  • PyPLN  – 用Python编写的分布式自然语言处理通道。这个项目的目标是创建一种简单的方法使用NLTK通过网络接口处理大语言库。

浏览器自动化与仿真

  • selenium - 自动化真正的浏览器(Chrome浏览器,火狐浏览器,Opera浏览器,IE浏览器)。

  • Ghost.py - 对PyQt的webkit的封装(需要PyQT)。

  • Spynner - 对PyQt的webkit的封装(需要PyQT)。

  • Splinter - 通用API浏览器模拟器(selenium web驱动,Django客户端,Zope)。

多重处理

  • threading - Python标准库的线程运行。对于I/O密集型任务很有效。对于CPU绑定的任务没用,因为python GIL。

  • multiprocessing - 标准的Python库运行多进程。

  • celery - 基于分布式消息传递的异步任务队列/作业队列。

  • concurrent-futures - concurrent-futures 模块为调用异步执行提供了一个高层次的接口。

异步

异步网络编程库

  • asyncio - (在Python 3.4 +版本以上的 Python标准库)异步I/O,时间循环,协同程序和任务。

  • Twisted - 基于事件驱动的网络引擎框架。

  • Tornado - 一个网络框架和异步网络库。

  • pulsar - Python事件驱动的并发框架。

  • diesel - Python的基于绿色事件的I/O框架。

  • gevent – 一个使用greenlet 的基于协程的Python网络库。

  • eventlet - 有WSGI支持的异步框架。

  • Tomorrow - 异步代码的奇妙的修饰语法。

队列

  • celery - 基于分布式消息传递的异步任务队列/作业队列。

  • huey - 小型多线程任务队列。

  • mrq - Mr. Queue – 使用redis & Gevent 的Python分布式工作任务队列。

  • RQ - 基于Redis的轻量级任务队列管理器。

  • simpleq - 一个简单的,可无限扩展,基于Amazon SQS的队列。

  • python-gearman - Gearman的Python API。

云计算

  • picloud - 云端执行Python代码。

  • dominoup.com - 云端执行R,Python和matlab代码。

电子邮件

电子邮件解析库

  • flanker - 电子邮件地址和Mime解析库。

  • Talon - Mailgun库用于提取消息的报价和签名。

网址和网络地址操作

解析/修改网址和网络地址库。

  • URL

    • furl - 一个小的Python库,使得操纵URL简单化。

    • purl - 一个简单的不可改变的URL以及一个干净的用于调试和操作的API。

    • urllib.parse - 用于打破统一资源定位器(URL)的字符串在组件(寻址方案,网络位置,路径等)之间的隔断,为了结合组件到一个URL字符串,并将“相对URL”转化为一个绝对URL,称之为“基本URL”。

    • tldextract - 从URL的注册域和子域中准确分离TLD,使用公共后缀列表。

  • 网络地址

    • netaddr – 用于显示和操纵网络地址的Python库。

 

网页内容提取

提取网页内容的库。

  • HTML页面的文本和元数据

    • newspaper – 用Python进行新闻提取、文章提取和内容策展。

    • html2text – 将HTML转为Markdown格式文本。

    • python-goose – HTML内容/文章提取器。

    • lassie - 人性化的网页内容检索工具

    • micawber - 一个从网址中提取丰富内容的小库。

    • sumy -一个自动汇总文本文件和HTML网页的模块

    • Haul - 一个可扩展的图像爬虫。

    • python-readability - arc90 readability工具的快速Python接口。

    • scrapely - 从HTML网页中提取结构化数据的库。给出了一些Web页面和数据提取的示例,scrapely为所有类似的网页构建一个分析器。

  • 视频

    • youtube-dl - 一个从YouTube下载视频的小命令行程序。

    • you-get - Python3的YouTube、优酷/ Niconico视频下载器。

  • 维基

    • WikiTeam - 下载和保存wikis的工具。

WebSocket

用于WebSocket的库。

  • Crossbar - 开源的应用消息传递路由器(Python实现的用于Autobahn的WebSocket和WAMP)。

  • AutobahnPython - 提供了WebSocket协议和WAMP协议的Python实现并且开源。

  • WebSocket-for-Python - Python 2和3以及PyPy的WebSocket客户端和服务器库。

DNS解析

  • dnsyo - 在全球超过1500个的DNS服务器上检查你的DNS。

  • pycares - c-ares的接口。c-ares是进行DNS请求和异步名称决议的C语言库。

计算机视觉

  • OpenCV - 开源计算机视觉库。

  • SimpleCV – 用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口(基于OpenCV)。

  • mahotas – 快速计算机图像处理算法(完全使用 C++ 实现),完全基于 numpy 的数组作为它的数据类型。

代理服务器

  • shadowsocks – 一个快速隧道代理,可帮你穿透防火墙(支持TCP和UDP,TFO,多用户和平滑重启,目的IP黑名单)。

  • tproxy - tproxy是一个简单的TCP路由代理(第7层),基于Gevent,用Python进行配置。

其他Python工具列表


相关文章推荐

如何不写代码通过爬虫软件采集表格数据

采集表格内容,包括列表形式的商品评论信息、正文中的表格等,凡是html代码采用表单形式的表格,都可以不写代码,通过可视化的方式完成采集。 首先,我们使用的工具是前嗅大数据的ForeSp...

Python分解URL域名模块tldextract

主页:https://github.com/john-kurkowski/tldextract windows下使用,运行setup会报错:from setuptools import ...
  • toyxia
  • toyxia
  • 2011年12月14日 13:41
  • 3930

Python实现网络爬虫

一、网络爬虫的定义 网络爬虫,即Web Spider,是一个很形象的名字。 把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。 网络蜘蛛是通过网页的链接地址来寻找网页的...
  • yapian8
  • yapian8
  • 2014年11月04日 23:30
  • 2198

Python爬虫----基础知识(简单爬虫架构、URL管理器和实现方法)

爬虫是什么:一段自动抓取互联网信息的程序 爬虫价值:互联网数据,为我所用 一、简单爬虫架构 爬虫调度端:用来启动、执行、停止爬虫,或者监视爬虫中的运行情况 在爬虫程序中有三个模块URL管理器:对...

Python爬虫之三种网页抓取方法性能比较

下面我们将介绍三种抓取网页数据的方法,首先是正则表达式,然后是流行的 BeautifulSoup 模块,最后是强大的 lxml 模块。1. 正则表达式  如果你对正则表达式还不熟悉,或是需要一些提示时...

python 网络爬虫入门(一)———第一个python爬虫实例

最近两天学习了一下python,并自己写了一个网络爬虫的例子。 python版本: 3.5 IDE : pycharm 5.0.4 要用到的包可以用pycharm下载: File->Defau...
  • Bo_wen_
  • Bo_wen_
  • 2016年03月13日 15:58
  • 55923

python网络爬虫(五):并发抓取

在进行单个爬虫抓取的时候,我们不可能按照一次抓取一个url的方式进行网页抓取,这样效率低,也浪费了cpu的资源。目前python上面进行并发抓取的实现方式主要有以下几种:进程,线程,协程。进程不在的讨...

Python3 爬虫(五) -- 单线程爬取我的CSDN全部博文

序 本文我实现的是一个CSDN博文爬虫,将我的csdn博客http://blog.csdn.net/fly_yr/article/list/1 中的全部博文基本信息抓取下来,每一页保存到一个文件中。 ...
  • fly_yr
  • fly_yr
  • 2016年05月30日 10:11
  • 5612

Python爬虫爬取动态页面思路+实例(一)

简介有时候,我们天真无邪的使用urllib库或Scrapy下载HTML网页时会发现,我们要提取的网页元素并不在我们下载到的HTML之中,尽管它们在浏览器里看起来唾手可得。这说明我们想要的元素是在我们的...

Delphi7高级应用开发随书源码

  • 2003年04月30日 00:00
  • 676KB
  • 下载
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:Python 爬虫的工具列表
举报原因:
原因补充:

(最多只允许输入30个字)