网络爬虫的基本知识(1)-- HTTP基本原理和web网页基础

在学习Python之前,我是学习SEO的,SEO就是搜索引擎优化,要做的工作呢,就是要了解搜索引擎背后的爬虫,了解爬虫的算法,提高搜索引擎中的自然排名。
在接触了Python之后,我决定自己去学习一下爬虫的写法,做一只属于自己的“蜘蛛”。

1 学爬虫前必须掌握的HTTP基本原理

1.1 了解URI和URL

  • URI (Uniform Resource Identifier)即 统一资源标志符
  • URL (Universal Resource Locator)即 统一资源定位符
    例如:https://img-blog.csdnimg.cn/img_convert/68fbe670718d21ea7b90a2f77d6461cd.png
    既是一个URL,也是一个URI。
    我们来拆分一下这网址:
    https 是访问协议
    img-blog.csdnimg.cn/img_convert 是访问路径(即根目录)
    68fbe670718d21ea7b90a2f77d6461cd.png 是资源名称
    这是一个图片资源,用URL/URI来唯一指定了它的访问方式

1.2 URI和URL之间的关系

URL是URI的一个子集
也就是说每个URL都是URI,但不是每个URI都是URL。
什么样的URI不是URL呢?
URI还包括一个子类叫作URN(Universal Resource Name)即统一资源名称
URN 只命名资源而不指定如何定位资源
比如:
urn:isbn:0451450523 指定了一本书的ISBN,可以唯一标识这本书,但是没有指定到哪里定位这本书
URL、URN、URI的关系图:
URL、URN、URI的关系图

1.3 超文本

超文本 (Hypertex)
浏览器里看到的网页就是超文本解析而成的,其网页源代码是一系列HTML代码,里面包含了一系列标签。
比如:

  • img 显示图片
  • p 指定显示段落等
    浏览器解析这些标签后,便形成了我们平常看到的网页,而网页的源代码 HTML 就可以称作为超文本
    例如,我们打开淘宝网,按F12就可以看到淘宝网的源代码,而这些源代码就是超文本:
    淘宝网源代码

1.4 HTTP和HTTPS

https://www.taobao.com/ 中,URL的开头会有http或https,这个就是访问资源需要的协议类型。
有时还会看到 ftp、sftp、smb 开头的 URL。
ftp、sftp、smb 都是指的协议类型

1.4.1 HTTP

HTTP (Hyper Text Transfer Proto)中文名叫作超文本传输协议
用于从网络传输超文本数据到本地浏览器的传送协议,能保证高效而准确地传送超文本文档
由万维网协会(World Wide Web Consor) 和Internet 工作小组 IETF(Internet Engineering Task Force)共同合作制定的规范。
目前广泛使用的是 HTTP 1.1 版本。

1.4.2 HTTPS

HTTPS (Hyper Text Transfer Protocol over Secure Socket Layer)
是以安全为目标的 HTTP 通道,简单讲师 HTTP 的安全版,即 HTTP 下加入 SSL 层,简称为 HTTPS。
安全基础是 SSL ,因此通过它传输的内容都是经过 SSL 加密。
主要作用可以分为两种:

  • 建立一个信息安全通道,来保证数据传输的安全
  • 确认网站的真实性,凡是使用了 HTTPS 的网站,都可以通过点击浏览器地址栏的锁头标志来查看网站认证之后的真实信息,也可以通过 CA 机构颁布的安全签章来查询
    越来越多的网站和 APP 都已向 HTTPS 方向发展
    例如:
  • 苹果公司强制所有 iOS App 在 2017 年 1 月 1 日 前全部改为使用 HTTPS 加密,否则 App 就无法在应用商店上架
  • 谷歌从 2017 年 1 月推出的 Chrome 56 开始,对未进行 HTTPS 加密的网址链接亮出风险提示,即在地址栏的显著位置题型用户“此网页不安全”
  • 腾讯微信小程序的官方需求文档要求后台使用 HTTPS 请求进行网络通信,不满足条件的域名和协议无法请求

HTTPS 已经是大势所趋

1.4.3 HTTP请求过程

在浏览器中输入一个 URL,回车之后便可以在浏览器中观察到页面内容,这个过程是浏览器想网站所在的服务器发送了一个请求。网站服务器接收到这个请求后进行处理和解析,然后返回对应的响应,接着传回给浏览器。
HTTP请求过程
实际操作一下:
打开 Chrome 浏览器,右击并选择“检查”项即可打开浏览器的开发者工具,这里访问百度
Chrome的开发者工具
输入 https://www.baidu.com 回车,观察右边,在这一过程中发生了什么样的网络请求。
在 network 下方出现了一个一个的条目,其中一个条目就代表了一次发送请求和接受响应的过程。
百度的网络请求
我们先观察第一个网络请求,即 www.baidu.com ,其中各列的含义如下:

  • 第一列:name 请求的名称,一般会将 URL 的最后一部分内容当作名称
  • 第二列:status 响应的状态码,如果显示是200,就代表响应是正常的,通过状态码我们可以判断发送了请求之后,是否得到了正常的响应。
  • 第三列: type 请求的文档类型,这里为 document ,代表我们这次的请求是一个 html 文档,内容就是一些 HTML 代码。
  • 第四列:initiator 请求源,用来标记请求使用哪个对象或进程发起的
  • 第五列:size 从服务器下载的文件和请求的资源大小,如果是从缓存中取得的资源,那么该列会显示为 from cache
  • 第六列:time 发起请求到获取响应所用的总时间
  • 第七列:waterfall 网络请求的可视化瀑布流

我们点击条目名称,就可以出现更详细的信息,如下图:
条目内容

我们先来看 General 部分:

  • Request URL 为请求的URL
  • Request Method 为请求的方法
  • Remote Address 为远程服务器的地址和端口
  • Status Code 为响应状态码
  • Referrer Policy 为 Referrer 判别策略

接着往下:
Response Headers 为响应头
Request headers 为请求头

1.4.4 请求

请求由客户端向服务器发出,可以分为四部分内容:

  • 请求方法 Request Method
  • 请求网址 Request URL
  • 请求头 Request headers
  • 请求体 Request body

1、请求方法
常见的有∶ GET和 POST

  • GET

在浏览器中直接输入 URL并回车,便发起了一个 GET请求,请求的参数会直接包含到 URL里
例如∶
在百度中搜索 Python,这就是一个GET请求,链接为 https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=1&rsv_idx=1&tn=baidu&wd=python&fenlei=256&rsv_pq=858a97a9000a5253&rsv_t=35a5wAIeG42USXN6eUOVz93PDNRjTv%2Fo22ASZ2RzcOmnVyNM1bfMB5ZhyNk&rqlang=cn&rsv_enter=1&rsv_dl=ts_1&rsv_sug3=5&rsv_sug1=5&rsv_sug7=101&rsv_sug2=0&rsv_btype=i&prefixsug=py&rsp=1&inputT=4626&rsv_sug4=6794
URL 中包含了请求的参数信息,这里参数 wd 表示要搜寻的关键字

  • P0ST

P0ST请求大多在表单提交时发起
例如∶对于一个登录表单,输入用户名和密码后,点击"登录" 按钮这通常会发起—个 POST请求其数据通常以表单的形式传输,而不会体现在 URL 中

GET和 POST请求方法有如下区别:

  • GET请求中的参数包含在 URL 里面,数据可以在 URL 中看到,而POST请求的 URL 不会包含这些数据,数据都是通过表单形式传输的,会包含在请求体中
  • GET请求提交的数据最多只有 1024 字节,而 POST请求没有限制
    其他的请求方法:
方法 描述
GET 请求页面,并返回页面内容
HEAD 类似于 GET请求,只不过返回的响应中没有具体的内容,用于获取报头
POST 大多用于提交表单或上传文件,数据包含在请求体中
PUT 从客户端向服务器传送的数据取代指定文档中的内容
DELETE 请求服务器删除指定的页面
CONNECT 把服务器当作跳板,让服务器代替客户端访问其他网页
OPTIONS 允许客户端查看服务器的性能
TRACE 回显服务器收到的请求,主要用于测试或诊断

2、请求的网址
即统一资源定位符 URL,可以唯一确定我们想请求的资源
3、请求头
用来说明服务器要使用的附加信息,比较重要的信息有 Cookie、Referer、User-Agent
常用的请求头信息:

  • Accept∶ 请求报头域,用于指定客户端可接受哪些类型的信息
  • Accept-Language∶ 指定客户端可接受的语言类型
  • Accept-Encoding∶指定客户端可接受的内容编码
  • Host∶ 用于指定请求资源的主机 IP 和端口号,其内容为请求 URL 的原始服务器或网关的位置
    从 HTTP 1.1 版本开始,请求必须包含此内容
  • Cookie∶ 也常用复数形式 Cookies,这是网站为了辨别用户进行会话跟踪而存储在用户本地的数据
    它的主要功能是维持当前访问会话。例如,我们输入用户名和密码成功登录某个网站后,服务器会用会话保存登录状态信息,后面我们每次刷新或请求该站点的其他页面时,会发现都是登录状态,这就是 Cookies 的功劳
    Cookies 里有信息标识了我们所对应的服务器的会话,每次浏览器在请求该站点的页面时,都会在请求头中加上 Cookies 并将其发送给服务器,服务器通过 Cookies 识别出是我们自己,并且查出当前状态是登录状态,所以返回结果就是登录之后才能看到的网页内容
  • Referer∶此内容用来标识这个请求
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值