Python网络爬虫案例实战:爬虫网络概述-HTTP基本原理

Python网络爬虫案例实战:爬虫网络概述-HTTP基本原理

在互联网软件开发工程师的分类中,爬虫工程师是非常重要的。爬虫工作往往是一个公司核心业务开展的基础,数据抓取下来,才有后续的加工处理和最终展现。此时数据的抓取规模、稳定性、实时性、准确性就显得非常重要。早期的互联网充分开放互联,数据获取的难度很小。随着各大公司对数据资源日益看重,反爬水平也不断提高,各种新技术不断给爬虫软件提出新的课题。
在写爬虫之前,需要了解一些基本知识,如HTTP原理、网页的基础知识、爬虫的基本原理、Cookies基本原理等。

1.1 HTTP基本原理

1.1.1 URL和URL

URL是URI的子集,也就是说每个URL都是URI,但不是每个URI都是URL。那么,怎样的URI不是URL呢?URI还包括一个子类叫作URN,它的全称为Universal Resource Name,即统一资源名称。URN只命名资源而不指定如何定位资源,比如urn:isbn:0451450523指定了一本书的ISBN,可以唯一标识这本书,但是没有指定到哪里定位这本书,这就是URN。URL、URN和URI的关系可以用图1-1表示。
在这里插入图片描述

1.1.2超文本

接着,再了解一个概念一一超文本,其英文名称为hypertext,在浏览器中看到的网页就是超文本解析而成的,其网页浏览代码是一系列HTML 代码,其中包含了一系列标签,比如img显示图片,p指定显示段落等。浏览器解析这些标签后,便形成了平常看到的网页,而网页的源代码HTML就可以称作超文本。
例如,在 Chrome浏览器中打开任意一个页面,如京东首页,右击任一位置并选择“检查”项(或直接按快捷键F12),即可打开浏览器的开发者工具,这时单击 Elements选项卡即可看到当前网页的源代码,这些源代码都是超文本,如图1-2所示。
在这里插入图片描述

1.1.3 HTTP和HTTPS

在京东的首页https://www.jd.com/中,URL的开头会有http或https,这就是访问资源需要的协议类型。有时,我们还会看到ftp、sftp、smb开头的URL,它们都是协议类型。在爬虫中,我们抓取的页面通常就是http或https协议的,此处首先了解一下这两个协议的含义。
HTTP的全称为Hyper Text Transfer Protocol,中文名叫作超文本传输协议。HTTP协议是用于从网络传输超文本数据到本地浏览器的传送协议,它能保证高效而准确地传送超文本文档。HTTP由万维网协议(World Wide Web Consortium)和Internet工作小组IETF(Internet Engineering Task Force)共同合作制定的规范,目前广泛应用使用的是HTTP1.1版本。
HTTPS的全称是Hyper Text Transfer Protocol over Secure Socket Layer,是以安全为目标的HTTP通道,简单讲是HTTP的安全版,即HTTP下加入SSL层,简称为HTTPS。
HTTPS的安全基础是SSL,因此通过它传输的内容都是经过SSL加密的,它的主要作用可以分为两种:
建立一个信息安全通道来保证数据传输的安全。
确认网站的真实性,凡是使用了HTTPS的网站,都可以通过单击浏览器地址栏的锁头标志来查看网站认证之后的真实信息,也可以通过CA机构颁发的安全签证来查询。现在越来越多的网站和App都已经向HTTPS方向发展,例如:
苹果公司强制所有iOS App在2017年1月1日前全部改为使用HTTPS 加密,否则App 就无法在应用商店上架。
谷歌从2017年1月推出的Chrome 56开始,对未进行HTTPS 加密的网址链接亮出风险提示,即在地址栏的显著位置提醒用户“此网络不安全”。
腾讯微信小程序的官方需求文档要求后台使用 HTTPS请求进行网络通信,不满足条件的域名和协议无法请求。

1.1.4HTTP 请求过程

在浏览器中输入一个URL,回车后便会在浏览器中观察到页面内容。实际上,这个过程是浏览器向网站所在的服务器发送了一个请求,网站服务器接收到这个请求后进行处理和解析,然后返回对应的响应,接着传回给浏览。响应中包含了页面的源代码等内容,浏览器再对其进行解析,然后便将网页呈现出来,模型如图1-3所示。
在这里插入图片描述
此处客户端即代表自己的PC或手机浏览器,服务器即要访问的网站所在的服务器。
为了更直观地说明这个过程,这里用 Chrome浏览器的开发者模式下的Network监听组件来做演示,它可以显示访问当前请求网页时发生的所有网络请求和响应。
打开 Chrome浏览器,右击并选择“检查”项,即可打开浏览器的开发者工具。这里访问百度http://www.baidu.com/,输入该URL后回车,观察这个过程中发生了怎样的网络请求。可以看到,在Network页面下方出现了一个个的条目,其中一个条目就代表一次发送请求和接收响应的过程,如图1-4所示。
先观察第一个网络请求,即www.baidu.com。其中各列的含义如下。
第一列Name:请求的名称,一般会将URL的最后一部分内容当作名称。
第二列 Status:响应的状态码,这里显示为200,代表响应是正常的。通过状态码,可以判断发送了请求之后是否得到了正常的响应。
第三列 Type:请求的文档类型,这里为document,代表这次请求的是一个HTML文档,内容就是一些 HTML代码。
第四列Initiator:请求源,用来标记请求是由哪个对象或进程发起的。第五列Size:从服务器下载的文件和请求的资源大小,如果是从缓存中取得的资源,则该列会显示from cache。
第六列Time:发起请求到获取响应所用的总时间。
第七列 Waterfall:网络请求的可视化瀑布流。
在这里插入图片描述
单击图1-4 中的Headers条目,即可看到更详细的信息,如图1-5所示。
在这里插入图片描述
在图1-5中,首先是General部分,Request URL 为请求的URL,Request Method为请求的方法,Status Code为响应状态码,Remote Address为远程服务器的地址和端口,Referrer Policy 为 Referrer判别策略。
再往下可以看到,有Response Headers 和 Request Headers,分别代表响应头和请求头。请求头中带有许多请求信息,例如浏览器标识、Cookie、Host等信息,这是请求的一部分,服务器根据请求头内的信息判断请求是否合法,进而作出相应的响应。在图1-5中看到的 Response Headers 就是响应的一部分,例如其中包含了服务器的类型、文档类型、日期等信息,浏览器接收到响应后,解析响应内容,进而呈现网页的内容。

1.1.5 请求

请求,由客户端向服务端发出,可以分为4部分内容:请求方法(Request Method)、请求的网址(Request URL)、请求头(Request Header)、请求体(Request Body)。

  1. 请求方法
    常见的请求方法有两种:GET和POST。
    在浏览器中直接输入URL并回车,这便发起了一个GET请求,请求的参数会直接 包含到URL里。例如,在百度中搜索Python,这就是一个GET请求,链接为https://www.baidu.com/s?wd=Python,其中URL中包含了请求的参数信息,这里参数wd表示要搜寻的关键字。POST请求大多在表单提交时发起。比如,对于一个登录表单,输入用户名和密码后,点击“登录”按钮,这通常会发起一个POST请求,其数据通常以表单的形式传输,而不会体现在URL中。
    GET和POST请求方法有如下区别。
    ● GET请求中的参数包含在URL里面,数据可以在URL中看到,而POST请求的URL不会包含这些数据,数据都是通过表单形式传输的,会包含在请求体中。
    ● GET请求提交的数据最多只有1024字节,而POST方式没有限制。

一般来说,登录时,需要提交用户名和密码,其中包含了敏感信息,使用 GET 方式请求,密码就会显露在URL 中,造成泄露,所以这里最好以POST方式发送。上传文件时,由于文件内容比较大,也会选用POST方式。
平常遇到的绝大部分请求都是GET 或POST请求,另外还有一些请求方法,如 HEAD、PUT.DELETE.CONNECT、OPTIONS、TRACE 等。请求方法总结见表1-1。

在这里插入图片描述

2.请求网址
请求的网址,即统一资源定位符URL,它可以唯一确定我们想请求的资源。
3.请求头
请求头,用来说明服务器要使用的附加信息,比较重要的信息有Cookie、Referer、User-Agent等。下面简要说明一些常用的头信息。
● Accept:请求报头域,用于指定客户端可接受哪些类型的信息。
● Accept-Language:指定客户端可接受的语言类型。
● Accept-Encoding:指定客户端可接受的内容编码。
● Host:用于指定请求资源的主机IP和端口号,其内容为请求URL的原始服务器或网关的位置。从HTP1.1版本开始,请求必须包含此内容。
● Cookie:也常用复数形式Cookies,这里网站为了辨别用户进行会话跟踪而存储在用户本地的数据。

● Referrer:此内容用来标识这个请求是从哪个页面发过来的,服务器可以通过这一信息做相应的处理,如进行来源统计、防盗链处理等。

● User-Agent:简称UA,它是一个特殊的字符串头,可以使服务器识别客户使用的操作系统及版本、浏览器及版本等信息。在写爬虫时加上此信息,可以伪装为浏览器;如果不加,很可能被识别出为爬虫。

● Content-Type:也称作互联网媒体类型(Internet Media Type)或者MIME类型,在 HTTP 协议消息头中,它用来表示具体请求中的媒体类型信息。例如,text/html 代表HTML 格式,image/gif 代表 GIF 图片,application/json 代表JSON类别,更多对应关系可以查看此对照表(见http://tool.oschina.net/commons)。因此,请求头是请求的重要组成部分,在写爬虫时,大部分情况下都需要设定请求头。
4.请求体
请求体一般承载的内容是POST请求中的表单数据,而对于 GET请求,请求体则为空。例如,在此登录 GitHub时捕获到的请求和响应如图1-6所示。
在这里插入图片描述
登录之前,填写了用户名和密码信息,提交时这些内容就会以表单数据的形式提交给服务器,此时需要注意Request Headers中指定Content-Type为 application/x-www-form-urlencoded。只有设置Content Type为 application/x-www-form-urlencoded,才会以表单数据的形式提交。另外,也可以将Content Type设置为application/json提交JSON数据,或者设置为multipart/form-data来上传文件。
表1-2列出了Content Type 和 POST提交数据方式的关系。
在这里插入图片描述
在爬虫中,如果要构造POST请求,需要使用正确的Content-Type,并了解各种请求库的各个参数在设置时使用的是哪种 Content-Type,不然可能导致POST提交后无法正确响应。

1.1.6响应

响应,由服务端返回给客户端,可以分为3个部分:响应状态码(Response Status Code)、响应头(Response Header)和响应体(Response Body)。
1.响应状态码
响应状态码表示服务器的响应状态,如200代表服务器正常响应,404代表页面未找到,500代表服务器内部发生错误。在爬虫中,可以根据状态码来判断服务器响应状态,如状态码为200,则证明成功返回数据,再进行进一步的处理,否则直接忽略。表1-3列出了常见的错误代码及错误原因。
在这里插入图片描述
2.响应头
响应头包含了服务器对请求的应答信息,如Content-type、Server、Set-Cookie等。下面简要说明一些常用的头信息。
Data:标识响应产生的时间。
Last-Modified:指定资源的最后修改时间。
Content-Encoding:指定响应内容的编码。
Server:包含服务器的信息,比如名称、版本号等。
Content-Type:文档类型,指定返回的数据类型是什么,如text/html 代表返回HTML 文档,application/x-javascript 代表返回JavaScript文件,image/jpeg 代表返回图片。
Set-Cookie:设置 Cookie。响应头中的 Set-Cookie告诉浏览器需要将此内容放在Cookie 中,下次请求携带 Cookie请求。
Expires:指定响应的过期时间,可以使用代理服务器或浏览器将加载的内容更新到缓存中。再次访问时,就可以直接从缓存中加载,从而降低服务器负载,缩短加载时间。
3.响应体
最重要的当属响应体的内容了。响应的正文数据都在响应体中,比如请求网页时,它的响应体就是网页的HTML 代码;请求一张图片时,它的响应体就是图片的二进制数据。爬虫请求网页时,要解析的内容就是响应体,如图1-7所示。
在这里插入图片描述
在浏览器开发者工具中单击Preview,就可以看到网页的源代码,也就是响应体的内容,它是解析的目标。
在做爬虫时,主要通过响应体得到网页的源代码、JSON数据等,然后从中做相应内容的提取。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值