Python爬虫的基本概念、分类、学习路线以及爬取数据思路_python爬虫和数据分析方向(2)

抓取网页数据的程序

爬虫如何抓取网页数据?

首先需要了解网页的三大特征:

  1. 每个网页都有自己的URL(统一资源定位符)来定位
  2. 网页都使用HTML(超文本标记语言)来描述页面信息
  3. 网页都使用HTTP/HTTPS(超文本传输协议)来传输HTML数据

爬虫的设计思路:

  1. 首先确定需要爬取的网URL地址
  2. 通过HTTP/HTTPS协议来获取对应的HTML页面
  3. 提取HTML页面内有用的数据:

a. 如果是需要的数据–保存

b. 如果有其他URL,继续执行第二步

img

Python爬虫的优势?

img

学习路线

抓取HTML页面:

  • HTTP请求的处理: urllib, urlib2, requests
  • 处理器的请求可以模拟浏览器发送请求,获取服务器响应的文件

解析服务器相应的内容:

  • re, xpath, BeautifulSoup(bs4), jsonpath, pyquery等
  • 使用某种描述性语言来给我们需要提取的数据定义一个匹配规则,符合这个规则的数据就会被匹配

采集动态HTML,验证码的处理

  • 通用动态页面采集: Selenium + PhantomJS:模拟真实浏览器加载JS
  • 验证码处理: Tesseract机器学习库,机器图像识别系统

Scrapy框架:

  • 高定制性,高性能(异步网络框架twisted)->数据下载快
  • 提供了数据存储,数据下载,提取规则等组件

分布式策略:

scrapy redis:在scarpy基础上添加了以redis数据库为核心的一套组件,主要在redis做请求指纹去重、请求分配、数据临时存储

爬虫、反爬虫、反反爬虫之间的斗争:

User-Agent, 代理, 验证码, 动态数据加载, 加密数据

爬虫的分类

通用爬虫:

1.定义: 搜索引擎用的爬虫系统

2.目标: 把所有互联网的网页爬取下来,放到本地服务器形成备份,在对这些网页做相关处理(提取关键字,去除广告),最后提供一个用户可以访问的借口

img

3.抓取流程:

a) 首先选取一部分已有的URL, 把这些URL放到带爬取队列中

b) 从队列中取出来URL,然后解析NDS得到主机IP,然后去这个IP对应的服务器里下载HTML页面,保存到搜索引擎的本地服务器里,之后把爬过的URL放入已爬取队列

c) 分析网页内容,找出网页里其他的URL连接,继续执行第二步,直到爬取结束

img

4.搜索引擎如何获取一个新网站的URL:

主动向搜索引擎提交网址: https://ziyuan.baidu.com/linksubmit/index

在其他网站设置网站的外链: 其他网站上面的友情链接

搜索引擎会和DNS服务商进行合作,可以快速收录新网站

5.通用爬虫注意事项

通用爬虫并不是万物皆可以爬,它必须遵守规则:

Robots协议:协议会指明通用爬虫可以爬取网页的权限

我们可以访问不同网页的Robots权限

最后

🍅 硬核资料:关注即可领取PPT模板、简历模板、行业经典书籍PDF。
🍅 技术互助:技术群大佬指点迷津,你的问题可能不是问题,求资源在群里喊一声。
🍅 面试题库:由技术群里的小伙伴们共同投稿,热乎的大厂面试真题,持续更新中。
🍅 知识体系:含编程语言、算法、大数据生态圈组件(Mysql、Hive、Spark、Flink)、数据仓库、Python、前端等等。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里无偿获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 11
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值