如果你需要在Python
中进行HTTP
请求的处理,有很多种方式可以使用。比较原始的有Python
的内置库urllib
、也有比较高级一点的第三方模块aiohttp
。
除此之外,还有最为人所熟知的requests
。它虽然是一个第三方模块,但是按照目前的情形来看,已经成为了事实上的Python HTTP请求标准库。它简单的API,直观的调用方式,深得新老程序员的喜爱,可以说是80%的爬虫入门第一站。
今天,咱们就再来认识认识它。
一、获取requests
requests
的安装很简单,直接使用pip
工具即可进行安装:
pip install requests
二、发送GET
请求
GET
请求是我们最常使用的HTTP请求,大部分的网页都是通过GET
请求进行响应的。
GET
请求表示请求方(浏览器、程序、爬虫……)正尝试从指定的资源(URL)上获取数据。
使用requests
发出GET
请求是一件很简单的事情,只需要两步:
引入
requests
调用
requests.get()
方法
例如:
import requests
requests.get('http://mrdoc.zmister.com')
下面,我们以觅道文档的示例站点(http://mrdoc.zmister.com) 为例,对requests
的使用进行演示。