#爬虫基本流程
一、获取网站的地址
有些网站的网址十分的好获取,显而易见,但是有些网址需要我们在浏览器中经过分析得出
二、获取User-Agent
我们通过获取User-Agent 来将自己的爬虫程序伪装成由人亲自来完成信息的获取,而非一个程序,因为大多数网站是不欢迎爬虫程序的
三、请求 url
主要是为了获取我们所需求的网址的源码,便于我们获取数据
四、获取响应
获取响应是十分重要的, 我们只有获取了响应才可以对网站的内容进行提取,必要的时候我们需要通过登录网址来获取cookie 来进行模拟登录操作
五、获取源码中的指定的数据
这就是我们所说的需求的数据内容,一个网址里面的内容多且杂,我们需要将我们需要的信息获取到,我目前主要用到的方法有3个分别是re(正则表达式) xpath 和 bs.4
六、处理数据和使数据美化
当我们将数据获取到了,有些数据会十分的杂乱,有许多必须要的空格和一些标签等,这时我们要将数据中的不需要的东西给去掉
七、保存
最后一步就是将我们所获取的数据进行保存,以便我们进行随时的查阅,一般有文件夹,文本文档,数据库,表格等方式
##常用字段的在爬虫中的作用。
**Request URL:**决定了爬虫发送的请求 url,得到请求 url 是 原本的官网 url 后面 + /search?key=<公司名>
。其中在图中看到是一串代码,其实就是公司名进行了特殊的编码后的结果。这可以通过浏览器地址栏确认或者下面的 Query String Parameters 确认。
**Request Method:**决定了爬虫发送请求的