Python爬虫之小白入门笔记汇总

小白想要入门Python爬虫,首先得了解爬虫的基本工作原理和相关的理论基础。

爬虫工作原理总结来讲就是四部曲:

接下来我会对Python爬虫各部分的学习框架进行拆分讲解

01 Python基础

学Python爬虫首先要把Python基础知识学好,像基础语法、数据结构类型、字符串、正则等。

内容是有一点多,但难度不是很大,0基础小白需要花点心思和时间去理解这些概念涵义。

基础之后可以逐步学习Python面向对象的编程、类、多重继承、模块、异常机制、多进程与线程等内容。

Python编程重在理清语法逻辑,熟练代码,掌握最核心的语法应用,比如字符串、正则表达式、循环语句等,这些在爬虫中几乎都要用到。

一开始接触基础不必太着急,可以跟着一些自学网站的免费资源学习,有些东西一开始不太理解到后面接触的知识范围广了,会突然有豁然开朗的感觉。

Python入门教材的话自己按需选择就可以了,没有什么最好的入门教材,适合自己的就是最好的。

我比较推荐的是《Python编程:入门到实践》。

02 爬虫学习路线

技巧一:请求库

请求库有:requests、selenium、urllib、aiohttp,我个人比较推荐新手小白掌握urllib和requests请求库。

urllib库

Python内置的HTTP请求库,不需要额外安装即可使用,包含以下4个模块:

① request 打开和读取 URL,最基本的HTTP请求模块,可以用来模拟发送请求

② error 包含 urllib.request 抛出的异常,如果出现请求错误,我们可以捕获这些异常,然后进行重试或其他操作以保证程序不会意外终止。

③ parse 用于解析 URL,比如拆分、解析、合并等。

④ robotparser 用于解析 robots.txt 文件,主要是用来识别网站的robots.txt文件,然后判断哪些网站可以爬,哪些网站不可以爬。

需要注意的是urllib不能自动判断重定向,需要自己解析重定向的链接并重新请求。

如果你只是爬取一般的网页,那么Python自带的urllib库足够用了,如果是想要爬取异步加载的动态网站,requests库会方便很多。

requests库

功能强大的爬取网页信息的第三方库,可以进行自动爬取HTML页面及自动网络请求提交的操作。

requests库的主要方法:

Response对象

技巧二:抓包工具分析网络请求

抓取工具主要有chrome firefox fidder appium,重点讲一下fidder,基本可以说目前最为全面和强大的抓包工具就是fiddler了,使用也不算麻烦。

Fiddler也在官网上有提供非常详细的文档和教程,如果使用的时候遇到问题,可以直接查阅官网文档。

我们可以利用Fiddler详细的对HTTP请求进行分析,并模拟对应的HTTP请求。

fiddler程序界面:

fiddler本质就是一个HTTP代理服务器。功能非常强大,除了可以清晰的了解每个请求与响应之外,还可以进行断点设置,修改请求数据、拦截响应内容。

技巧三:解析数据库

解析库有非常多可以选择,比如CSS、pyqery、re、xpath等,新手建议熟练掌握Beautiful Soup。

Beautiful Soup解析库

是第三方库,需要安装使用,在命令行用pip安装就可以了:

具体用法:

变量名称 = BeautifulSoup(需要解析的数据,"html.parser’)

它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序,能自动转换编码。

BeautifulSoup支持的解析器:

1)Python标准库:内置库、执行速度适中、文档容错能力强;

2)lxml HTML解析器:速度快,文档容错能力强(推荐);

3)lxml XML解析器:速度快,唯一支持xml的解析器;

4)html5lib:最好的容错性、以浏览器方式解析文档,生成HTML5格式的文档。

具体用法:

soup=BeautifulSoup(markup,from_encoding=“编码方式”)

备注:1. BeautifulSoup()内的第一个参数,即需要解析的数据,类型必须为字符串,否则运行时系统会报错。

不过Xpath比Beautiful Soup更省事,省略了一层一层检查元素代码的工作,一般的静态网站压根不是问题。

技巧四:保存数据

学到这里就比较容易了,主要是对数据的存储和处理,有两种方式:

A、小规模数据可以使用txt文件、json文件、csv文件等方式来保存文件。

B、大规模数据就需要使用数据库了像mysql,mongodb、redis等就比较方便查询管理。

这一块掌握主流的MongoDB 就可以了,可以方便你去存储一些非结构化的数据,比如各种评论的文本,图片的链接等等。

以上这些核心技巧Python都有相应的库帮你去做,你只需要知道如何去应用它们,掌握精通每一部分的一到两种方法就可以了。

学到这里,一般爬虫的学习路径大概就学完了,学习的过程因人而异,遇到困难和挫折肯定是有的,可以多和身边学习Python爬虫的小伙伴们交流交流,集思广益。

接下来就是爬虫的高级运用技巧了,还想对爬虫了解更多的话继续往下看吧~

03 应对反爬

当你能够独自爬取80%以上的网站后,再学点反爬技巧,爬虫之路不会有太大的阻碍。

一般爬虫过程中可能会碰到像奇奇怪怪的验证码、被封IP(例如豆瓣和github,在检测到某一客户端频繁访问后,会直接封锁ip)、userAgent访问限制、动态数据加载、加密数据等这种反爬虫的手段。

简单一点的根据User-Agent过滤,例如知乎,我们只需要设置为和浏览器相同即可。

常规的解决办法通常有比如控制访问频率、抓包、反加密字体、验证码OCR处理、使用代理IP池等。

能够掌握常规的反爬技巧,绝大部分的网站爬虫不是问题。

这里需要提示一点的是:不要去挑战反爬!后果很严重!

如果不满足自己的爬虫效率,觉得爬取速度太慢了,可以去学习爬虫框架scrapy和分布式爬虫。

04 高级爬虫技巧

爬虫框架scrapy

Python开发的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。

Scrapy框架主要由五大组件组成,分别是调度器(Scheduler)、下载器(Downloader)、爬虫(Spider)和实体管道(Item Pipeline)、Scrapy引擎(Scrapy Engine)。

在复杂的情况下,scrapy框架不仅能够便捷地构建request,还有强大的 selector 能够方便地解析 response,这是一个功能十分强大的爬虫框架。

分布式爬虫

企业级爬虫,能实现数据的大规模采集,通俗一点来理解就是它可以实现多台电脑使用一个共同的爬虫程序,同时将爬虫任务部署到多台电脑上运行,这样可以提高爬虫速度和效率,需要掌握 Scrapy + MongoDB + Redis 这三种工具。

但是分布式爬虫对电脑的CPU和网速都有一定的要求,这个看个人需要,如果你需要用于大规模的数据爬取,分布式爬虫可以帮你解决很多的麻烦。

大部分情况下单一爬虫都能满足一般的爬取需要,只是爬取效率比不了分布式爬虫,有条件的可以尝试学学分布式爬虫。

新手小白掌握Python爬虫相对来说是比较简单的,只要大概掌握爬虫的每一步操作原理,能够熟练运用一到两个库就可以实现简单的爬虫,不过还是需要自己多学多练哦!

关于Python学习指南

学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。我收藏了很多技术干货,可以共享给喜欢我文章的朋友们,如果你肯花时间沉下心去学习,它们一定能帮到你,干货内容包括:

👉Python所有方向的学习路线👈

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

👉Python学习开发工具👈

工欲善其事必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。

在这里插入图片描述

👉Python入门学习视频👈

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。

在这里插入图片描述

👉Python实战练手案例&源码👈

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉全套PDF电子书👈

书籍的好处就在于权威和体系健全,刚开始学习的时候你可以只看视频或者听某个人讲课,但等你学完之后,你觉得你掌握了,这时候建议还是得去看一下书籍,看权威技术书籍也是每个程序员必经之路。

在这里插入图片描述

👉Python大厂面试资料👈

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。

👉Python副业兼职学习路线👈

​​在这里插入图片描述

👉 这份完整版的Python全套学习资料已经上传,朋友们如果需要可以扫描下方CSDN官方认证二维码或者点击链接免费领取保证100%免费

读者福利:CSDN大礼包:《Python小白从入门到精通全套学习资料》免费分享 安全链接免费领取

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值