urllib库:
urllib库是Python中一个最基本的网络请求库,可以模拟浏览器的行为,向指定的服务器发送一个请求,并可以保存服务器返回的数据
urlopen函数:
- 在Python3的urllib库中,所有和网络请求相关的方法,都被集中到urllib.request模块下,先看下urllib函数基本的使用:
以下对urlopen的函数进行详细讲解:from urllib import request resp = request.urlopen('http://www. baidu.com') print(resp.read())
- url:请求的url
- data:请求的data,如果设置这个值,将变成post请求。
- 返回值:返回的是一个http.client.HTTPResponse对象,这个对象是一个类文件句柄对象。有:
- read(size)–size是指字节数、
- readline–读取一行、
- readlines—读取多行、
- getcode–获取状态码 等方法。
urlretrieve函数:
- 这个函数可以方便的将网页上的一个文件保存到本地。以下代码是将百度的首页下载到本地:
from urllib import request request.urlretrieve('http://baidu.com/','baidu.html')
urlencode函数:
- 用浏览器发送请求的时候,如果url包含了中文或者其他特殊字符,那么浏览器会自动的给我们进行编码。而如果使用代码发送请求,那么就必须要手动进行编码,这时候就应该使用urlencode函数来实现。可以将字典数据转化为URL编码的数据。示例代码如下:
from urllib import parse data = { 'name':'爬虫基础', 'greet':'hello world', 'age':100 } qs = parse.urlencode(data) print(qs)
parse_qs函数:
- 可以将经过编码后的url参数进行解码。示例代码如下:
qs = "name=%E7%88%AC%E8%99%AB%E5%9F%BA%E7%A1%80&greet=hello+world&age=100" print(parse.parse_qs(qs))
urlparse和urlsplit:
- 有时候拿到一个url,想要对这个url中的各个组成部分进行分割,那么这时候就可以使用urlparse或者是urlsplit来进行分割。示例代码如下:
#urlparse和urlsplit对字符串进行分割,两个方法的区别是urlsplit没有params,params用的比较少 url='https://www.baidu.com/s?wd=python&username=zhiliao#1' # result = parse.urlsplit(url) result = parse.urlparse(url) print(result) print('scheme:' , result.scheme) #scheme 是协议 print('netloc:' , result.netloc) #netloc是域名 print('path:' , result.path) #path表示本网页地址 print('query:' , result.query) #query表示查询字符串 print('fragment' , result.fragment) # 锚点链接
requset.Request类:
- 如果想要在请求的时候增加一些请求头,那么就必须使用request.Requset类来实现。比如要增加一个User-Agent,示例代码如下:
from urllib import request headers={ 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/80.0.3970.5 Safari/537.36' } req = request.Request('http://www.baidu.com',headers=headers) resp = request.urlopen(req) print(resp.read())