Request库:封装了自动爬取HTML页面,自动网络请求提交的方法的库
Request库的7个主要方法:
- requests.request():构造一个请求,是一下个方法的基础
- requests.get():获取HTML网页的主要方法,对应于HTTP的GET
- requests.head():获取HTML网页头部信息的方法,对应HTML的HEAD
- requests.post():向HTML网页提交POST请求的方法,对应于HTTP的POST
- requests.put():向HTML网页提交PUT请求的方法,对应于HTTP的PUT
- requests.patch():向HTML网页提交局部修改请求的方法,对应于HTTP的PATCH
- requests.delete():向HTML页面提交删除请求的方法,对应于HTTP的DELETE
get()方法
r = requests.get()
r 是返回的一个包含服务器资源的Response对象,get()方法构造一个向服务器发送请求的Request对象
requests.get()
requests.get(url,params=None,**kwargs)
url:拟获取页面的url连接
params :url中的额外参数,字典或字节流格式,可选
**kwargs:12个访问控制参数
Request对象
Response包含服务器返回的所有信息,也包含了Request的请求信息
Response对象的属性
- r.status_code:HTTP请求的返回状态,200表示成功,400表示失败
- r.encoding:从HTTP请求的head中猜测的响应内容编码格式,默认是IOS8859-1
- r.apparent_encoding:从返回内容中分析的编码方式(备选编码方式)
- r.textHTTP:响应内容的字符串形式,url对应的而页面内容
- r.contentHTTP:相应内容的二进制形式
简单爬虫demo:
import requests
def getHTMLText(url):
try:
r = requests.get(url, timeout=30)
r.raise_for_status() # 如果状态不是200, 引发HTTPError异常
r.encoding = r.apparent_encoding
return r.text
except:
return "产生异常"
if __name__=="__main__":
url = "http://www.baidu.com"
print(getHTMLText(url))
Request库的异常:
- ConnectionError:网络连接异常,如DNS查询失败、拒绝连接等
- HTTPError:HTTP错误异常
- URLRequest:url确实异常
- TooManyRedirects:超过最大重定向次数异常
- ConnectionTimeout:网络连接超时
- Timeout:请求url超时