一般来说,爬虫大致分为几个流程:
1. 准备工作
2. 获取数据
3. 解析内容
4. 保存数据
爬虫的本质,其实就是让脚本程序模拟认为操作,通过浏览器去访问网页(网站),对于网站服务器来说,人为的通过浏览器访问和通过脚本程序爬虫没有太大区别(反爬虫这些我还没学,所以这里可能说的有点笼统,这里只是说说我目前的理解)。不过不同的是,人为访问网页,获取的是一个网页(人眼看到的页面);而脚本获取的信息,是整个页面的源码(chrom浏览器按f12),可以对这些信息进行更加细致的分析。
这篇博客先来说说准备工作包含的大致工作:
1. URL分析。即发现所爬取网页链接的规律,比如下面这个例子:
2. 浏览器给服务器发送信息(浏览器f12->Network->Headers)格式分析
User-Agent(浏览器的身份):
简单的爬虫中,必须掌握User-Agent的语义和格式(这个信息体现了用户所用的浏览器版本信息),如下图所示:
cookie(登录的身份):
学会如何存储、读取cookie。
如果想爬取 登录之后才能看到的网页信息,就必须学会操作cookie。
在获取这些信息后,需要进行分析,不过多数情况下不需要人为编写细致的代码进行分析,python有很多与爬虫网页分析有关的库,可以直接用,非常方便(突然回想起学C的日子,什么都得自己写,hhh)。
小知识点:
python程序可以设置一个入口,也就是整个程序第一个执行的语句,也就是执行的起点,这样可以让我们的程序结构和执行顺序更加清晰。下面这句话就是程序的入口:
爬虫需要的主要的包如下图所示: