Python网络爬虫

Python网络爬虫.4(笔记)

笔记均是观看慕课视频所记录的。

Requests库主要方法解析
requests.request(method,url,**kwargs)

  • method:请求方式,对应get/put/post等7种
    r=requests.request(‘GET’ , url , **kwargs)
    r=requests.request(‘HEAD’ , url , **kwargs)
    r=requests.request(‘POST’ , url , **kwargs)
    r=requests.request(‘PUT’ , url , **kwargs)
    r=requests.request(‘PATCH’ , url , **kwargs)
    r=requests.request(‘delete’ , url , **kwargs)
    r=requests.request(‘OPTIONS’ , url , **kwargs)
  • url:拟获取页面的url链接
  • **kwargs:控制访问的参数,均为可选项,共13个
    params:字典或字节序列,作为参数值增加到url中
>>> kv = { 'key1' : 'value1' , 'key2' : 'value' }
>>> r =requests.request( 'GET' , 'http://python123.io/ws' , params = kv)
>>> print( r.url )
http://python123.io/ws?key1=value1&key2=value2

data:字典、字节序列或文件对象,作为Request的内容

>>> kv = { 'key1' : 'value1' , 'key2' : 'value' }
>>> r =requests.request( 'GET' , 'http://python123.io/ws' , data = kv)
>>> body = '主体内容'
>>> r =requests.request( 'POST' , 'http://python123.io/ws' , data = body)

json:JSON格式的数据,作为Request的内容

>>> kv = { 'key1' : 'value1' }
>>> r =requests.request( 'GET' , 'http://python123.io/ws' , json = kv)

headers:字典,HTTP定制头

>>> hd = { 'user-agent' : 'Chrome/10' }
>>> r =requests.request( 'POST' , 'http://python123.io/ws' , headers = hd)

cookies:字典或CookieJar,Request中的cookie
auth:元组,支持HTTP认证功能
files:字典类型,传输文件

>>> fs = { 'file' : open('data.xls' , 'rb') }
>>> r =requests.request( 'POST' , 'http://python123.io/ws' , files = fs)

timeout:设定超时时间,秒为单位

>>> r =requests.request( 'GET' , 'http://www.baidu.com ' , timeout = 10)

proxies:字典类型,设定访问代理服务器,可以增加登录认证

>>> pxs = { 'http' : 'http://user:pass@10.10.1:1234' 
            'https' : 'https://10.10.10.1:4321' }
>>> r =requests.request( 'GET' , 'http://www.baidu.com ' , proxies = pxs)

allow_redirects:True/False,默认为True,重定向开关
stream:True/False,默认为True,获取内容立即下载开关
verify:True/False,默认为True,认证SSL证书开关
cert:本地SSL证书路径

requests.get(url , params=None , **kwargs)

  • url:拟获取页面的url链接
  • params:url中的额外参数,字典或字节流格式,可选
  • **kwargs:12控制访问的参数

requests.head(url , **kwargs)

  • url:拟获取页面的url链接
  • **kwargs:12控制访问的参数

requests.post(url , data=None , json=None , **kwargs)

  • url:拟更新页面的url链接
  • data:字典、字节序列或文件对象,作为Request的内容
  • json:JSON格式的数据,作为Request的内容
  • **kwargs:12控制访问的参数

requests.put(url , data=None , **kwargs)
requests.patch(url , data=None , **kwargs)

  • url:拟更新页面的url链接
  • data:字典、字节序列或文件对象,作为Request的内容
  • **kwargs:12控制访问的参数

requests.delete(url , **kwargs)

  • url:拟删除页面的url链接
  • **kwargs:12控制访问的参数
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值