1.关于requests library的方法
requests.request() 构造一个请求,支撑以下个方法的 基础
requests.get() 获取HTTP网页的主要方法,对应于HTTP的GET
requests.head() 获取HTTP网页的头信息,对应于HTTP的HEAD
requests.post() 向HTTP网页提交post请求方法,对应于HTTP的post
requests.put() 向HTTP网页提交put请求方法, 对应于HTTP的put.
requests.patch() 向HTTP网页提交局部修改请求 ,对应于HTTP的patch
requests.delete() 向网页提交删除请求,对应于HTTP的DELETE
# 获取网页代码
# requests.get(url,params=None,**kwargs)
# url: 拟获取url链接
#params:url中的额外参数,字典或字节流格式,可选
# **kwargs : 12个控制访问参数
#r=requests.get("https://www.baidu.com")
#print(r.status_code)
#r.encoding='utf-8'
#print(r.text)
对于r 是Response对象,其属性有
r.states_code :http请求的返回状态,200表示连接成功,404表示连接失败
r.text :http响应内容的字符串形式,即url对应的页面内容
r.encoding :从http header中猜测的响应内容编码方式
r.apparent_encoding :从内容中分析出的响应内容编码方式
r.content:http响应内容的二进制形式
r.encoding:如果header中不存在charset,则认为编码为ISO‐8859‐1r.text根据r.encoding显示网页内容r.apparent_encoding:根据网页内容分析出的编码方式可以看作是r.encoding的备选
异常 说明
requests.ConnectionError 网络连接错误异常,如DNS查询失败、拒绝连接等
requests.HTTPError HTTP错误异常
requests.URLRequired URL缺失异常
requests.TooManyRedirects 超过最大重定向次数,产生重定向异常
requests.ConnectTimeout 连接远程服务器超时异常
requests.Timeout 请求URL超时,产生超时异常
爬取网页的通用代码框架
import requests
def getHTMLText(url):
try:
r = requests.get(url, timeout=30)
r.raise_for_status() # 如果状态不是200, 引发HTTPError异常
r.encoding = r.apparent_encoding
return r.text
except:
return "产生异常"
if __name__=="__main__":
url = "http://www.baidu.com"
print(getHTMLText(url))
requests.request(method, url ,**kwargs) **kwargs中的 可选项proxies是字典类型,可设定代理服务器,增加登录认证
有效的反爬虫的ip追踪。
pxc={'http':'http://user:pass@10.10.10.1:1234' 'https':'https://10.10.10.1:4321' }
r=requests.request('GET','http://www.baidu.com',proxies=pxc)