Python爬虫入门一综述

网络爬虫是一种自动抓取万维网信息的程序。
学习python爬虫,需要学习以下知识:

  • python基础
  • python中的urlliburllib2库的用法
  • python正则表达式
  • python爬虫框架scrapy
  • python爬虫高级功能

1.python基础

廖雪峰python教程

2.python urllib和urllib2库使用

urllib 和 urllib2 库是学习 Python 爬虫最基本的库,利用这个库我们可以得到网页的内容,并对内容用正则表达式提取分析,得到我们想要的结果。

3.python正则表达式

用来匹配文本内容

4.爬虫框架scrapy

学习完基础知识,进一步学习爬虫框架。
scrapy的功能介绍:

HTML, XML 源数据 选择及提取 的内置支持 提供了一系列在 spider 之间共享的可复用的过滤器 (即 Item Loaders),对智能处理爬取数据提供了内置支持。
通过 feed 导出 提供了多格式 (JSON、CSV、XML),多存储后端 (FTP、S3、本地文件系统) 的内置支持 提供了 media pipeline,可以 自动下载 爬取到的数据中的图片 (或者其他资源)。
高扩展性。您可以通过使用 signals ,设计好的 API (中间件,extensions, pipelines) 来定制实现您的功能。
内置的中间件及扩展为下列功能提供了支持: cookies and session 处理 HTTP 压缩 HTTP 认证 HTTP 缓存 user-agent 模拟 robots.txt 爬取深度限制
针对非英语语系中不标准或者错误的编码声明,提供了自动检测以及健壮的编码支持。
支持根据模板生成爬虫。在加速爬虫创建的同时,保持在大型项目中的代码更为一致。
详细内容请参阅 genspider 命令。
针对多爬虫下性能评估、失败检测,提供了可扩展的 状态收集工具 。
提供 交互式 shell 终端,为您测试 XPath 表达式,编写和调试爬虫提供了极大的方便 提供 System service, 简化在生产环境的部署及运行
内置 Web service, 使您可以监视及控制您的机器
内置 Telnet 终端 ,通过在 Scrapy 进程中钩入 Python 终端,使您可以查看并且调试爬虫 Logging 为您在爬取过程中捕捉错误提供了方便 支持 Sitemaps 爬取 具有缓存的 DNS 解析器

scrapy官方文档
scrapy中文手册

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值