python中的爬虫基础工具介绍

文章介绍了网络爬虫的基本概念,包括通用爬虫和聚焦爬虫的差异,并详细讲解了Chrome开发者工具的各个面板功能,如元素面板用于查看网页结构,控制台面板显示JS和DOM信息,网络面板则用于分析HTTP请求和响应。
摘要由CSDN通过智能技术生成

一. 引入什么是爬虫

网络爬虫:按照一定的规则,自动地抓取互联网信息的程序。

通俗的来讲:模拟用户端向服务器发送请求,批量获取数据的一种程序或(工具,方式)

二,爬虫的分类

1通用爬虫

通用网络爬虫是捜索引擎抓取系统(Baidu、Google、Sogou等)的一个重要组成部分。主要目的
是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。为搜索引擎提供搜索支持。

2聚焦爬虫

针对通用爬虫的这些情况,聚焦爬虫技术得以广泛使用。聚焦爬虫,是"面向特定主题需求"的一种
网络爬虫程序,它与通用搜索引擎爬虫的区别在于: 聚焦爬虫在实施网页抓取时会对内容进行处理筛选,尽量保证只抓取与需求相关的网页数据。

三 chrome 开发者工具

Chrome 开发者工具是一套内置于 Google Chrome 中的 Web 开发和调试工具,可用来对网站进行迭代、调试和分析。因为国内很多浏览器内核都是基于 Chrome 内核,所以国产浏览器也带有这个功能。例如:UC 浏览器、QQ 浏览器、360 浏览器等。

1元素面板(Elements)

通过元素(Element)面板,我们能查看到想抓取页面渲染内容所在的标签、使用什么 CSS 属性
(例如:class=“middle”)等内容。例如我想要抓取我知乎主页中的动态标题,在网页页面所在处上右击鼠标,选择“检查”,可进入 Chrome 开发者工具的元素面板。

2 控制台面板(Console)

控制台面板(Console)是用于显示JS和DOM对象信息的单独窗口。

3 资源面板(Source)

在资源面板(Source)页面可以查看到当前网页的所有源文件。

4 网络面板(Network)

网络(Network)面板记录页面上每个网络操作的相关信息,包括详细的耗时数据、HTTP 请求与响应标头和 Cookie,等等。这就是我们通常说的抓包。
###1工具栏
Stop recording network log
默认情况下,只要开发者工具在开启状态,会记录所有的网络请求,当然,记录都是在Network 面板展
示的。红色表示开启,灰色表示关闭。
Clear
清空所有数据,每一次重新分析是都需要清空之前的数据。
Filter
数据包过滤器。红色表示打开,蓝色表示关闭。
经常来使用它来过滤出一些 HTTP 请求,例如过滤出使用 Ajax 发起的异步请求、图片、视频等。
Filter搜索框
根据地址过滤,比如 baidu.com ,就只会过滤数据包地址中包含 baidu.com 的数据包。
Invert
Filter搜索框中取反过滤,比如 baidu.com ,会过滤数据包地址中不包含 baidu.com 的数据包。
Hide data URLs
用于是否隐藏dataurl,那么什么是dataurl呢?传统的通常img标记的src属性指定了一个远程服务器的资源,浏览器针对每个外部资源需要向服务器发送一次拉取资源请求。而Data URL技术是图片数据以base64字符串格式嵌入到了页面中,和HTML融为一体。
Has blocked cookies
仅显示具有阻止响应cookie的请求,此选项千万不要勾选。
Blocked Requests
仅显示被阻止的请求,此选项千万不要勾选。
3rd-party requests
仅显示来源与页面来源不同的请求,此选项千万不要勾选。
最大的窗格叫 Requests Table,此表格会列出了检索的每一个 HTTP 请求。默认情况下,此表格按时间顺序排序,最早的资源在顶部。点击资源的名称可以显示更多信息。

2 Requests Table参数:

all:所有请求数据(图片、视频、音频、js代码、css代码* )
XHR:XMLHttpRequest 的缩写,是ajax技术的核心,动态加载完成经常分析的一个内容
CSS: css样式文件
JS:JavaScript文件,是js解密常分析的一个页面
Img: Images 图片文件
Font: 字体文件(字体反扒)
DOC : Document,文档内容
WS: WebSocket,web端的socket数据通信,一般用于一些实时更新的数据
Manifest:显示通过manifest缓存的资源。包括很多信息,如js库文件会显示文件地址、大小和类型;

3 其他的工具栏

Search
搜索框,只要在 ALL 里面出现的过的内容,就可以被直接搜索到。常用与数据检索与 JS 解密
Preserve log
保留日志。当分析在多个页面跳转的内容时,一定要勾上,不然当页面发生新的跳转是,历史数据全部都会被清空。保留日志,做爬虫是一定需要勾上
Disable cache
清空 JavaScript、css 文件的缓存,获取最新的。

5 Requests详情:

1 请求头

Headers:是显示 HTTP 请求的 Headers,我们通过这个能看到请求的方式,以及携带的请求参数等。
General
Request url :实际请求的网址
Request Method: 请求方法
Status Code :状态码,成功时为 200

2 Response Headers

服务器返回时设置的一些数据,例如服务器更新的cookie数据最新是在这里出现修改

3 Requests Headers

请求体,请求不到数据的原因一般出在这里。反扒也是反扒请求体里面的数据
Accept:服务器接收的数据格式(一般忽略)
Accept-Encoding: 服务器接收的编码(一般忽略)
Accept-Language: 服务器接收的语言(一般忽略)
Connection: 保持连接(一般忽略)
Cookies: cookies信息,是身份信息,爬取VIP资源是需要携带身份信息
Host: 请求的主机地址
User-Agent: 用户身份代理,服务器根据这个判断用户的大概信息
Sec-xxx-xxx: 其他信息,可能没用,可能是反扒。具体情况具体分析*

4 Preview

Preview 是请求结果的预览。一般用来查看请求到的图片,对于抓取图片网站比较给力。

5 Response

Response 是请求返回的结果。一般的内容是整个网站的源代码。如果该请求是异步请求,返回的
结果内容一般是 Json 文本数据。
此数据与浏览器展示的网页可能不一致,因为浏览器是动态加载的

6 Initiator

请求发起所调用的堆栈

7 Timing

请求与响应时间表

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不想做程序猿的员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值