python爬虫入门学习:Requests库基本操作

Requests库基本操作

Python网络爬虫与信息提取-北理工 嵩天(大学mooc)
本课B站版

之前介绍了requests库有七种基本方法,又介绍了其中最重要的get()方法,下面将介绍其他方法

HTTP协议对资源的操作分别为:
get 请求获取URL位置资源
head 请求获取URL位置资源的头部信息
post 请求向URL资源后增加新的数据
put 请求向URL位置存储一个资源,覆盖原资源
patch 请求局部更新URL资源
delete 请求删除URL位置资源

打个比方:从网络获取资源——get, head
自己资源上传上——put patch post
删除——delete

对于request方式,原函数如下:
request.request(method,url,**kwargs)
其中:
method代表七种请求方式,对应HTTP协议的请求功能
'GET' 'HEAD' 'POST' 'PUT' 'PATCH' 'DELETE' 'OPTIONS'
其中OPTIONS为获取参数的方式,用的机会较少

url就是访问的连接

对于**kwargs 代表13个访问的参数

  • params

params 字典或字节序列,作为参数增加至url中
例如:

import requests

kv = {'key1':'v1','key2':'v2'}
r = requests.request('GET','http://baidu.com',params = kv)
print(r.url)

#http://baidu.com/?key1=v1&key2=v2

可以看到,这个字典被增加到了url地址后面

  • data

字典,字节序列或文件对象作为Request的内容
例如:

kv = {'key1':'v1','key2':'v2'}
r = requests.request('POST','http://baidu.com',data = kv)

这个字典被post上了这个url连接的内容中

  • json

JSON格式的数据,作为request的内容
用法类似data,只不过上传到的地方不同

  • headers

通过字典,为HTTP格式定制头

  • cookies

字典或CookieJar,Request中的cookie

  • auto

元组,支持HTTP认证功能

  • files

字典类型,传输文件
通过这个方法,可以建立一个文件,直接输出

  • timeout

设定超时时间,以秒为单位

  • proxies

字典类型,设定访问服务器,可以增加登录的认证、

  • allow_redirects

默认为True,重定向开关

  • stream

默认为True ,获取内容立即下载开关

  • verify

默认为True 认证SSL证书

  • cert

本地SSL证书路径

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值