python爬虫requests.getcookie_python爬虫用request库处理cookie的实例讲解

python爬虫中使用urli库可以使用opener"发送多个请求,这些请求是能共享处理cookie的,小编之前也提过python爬虫中使用request库会比urllib库更加⽅便,使用使用requests也能达到共享cookie的目的,即使用request库get方法和使用requests库提供的session对象都可以处理。

方法一:使用request库get方法

resp = requests.get('http://www.baidu.com/')

print(resp.cookies)

print(resp.cookies.get_dict())

方法二:使用requests库提供的 session对象

import requests

url = "http://www.renren.com/plogin.do"

data = {"email":"970138074@qq.com",'password':"pythonspider"}

headers = { 'user-agent': "mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36

(khtml, like gecko) chrome/62.0.3202.94 safari/537.36" }

#登录

session = requests.session() session.post(url,data=data,headers=headers)

#访问

resp = session.get('http://www.renren.com/256450404/profile')

print(resp.text) ```

知识点扩展:

我们知道了requests中的session对象能够在请求之间保持cookie,它极大地方便了我们去使用cookie。当我们想设置方法级别中的请求时,可以如下面示例一样操作。

import requests

s = requests.session()

# 第一步:发送一个请求,用于设置请求中的cookies

cookies = dict(cookies_are='cookie1')

# tips: http://httpbin.org能够用于测试http请求和响应

r1 = s.get(url='http://httpbin.org/cookies', cookies=cookies)

print(r1.text)

# 第二步:发送一个请求,用于再次设置请求中的cookies

cookies = dict(cookies_are='cookie2')

r2 = s.get(url='http://httpbin.org/cookies', cookies=cookies)

print(r2.text)

运行后

# r1.text

{

"cookies": {

"cookies_are": "cookie1"

}

}

# t2.text

{

"cookies": {

"cookies_are": "cookie2"

}

}

到此这篇关于python爬虫用request库处理cookie的实例讲解的文章就介绍到这了,更多相关python爬虫如何使用request库处理cookie内容请搜索萬仟网以前的文章或继续浏览下面的相关文章希望大家以后多多支持萬仟网!

如您对本文有疑问或者有任何想说的,请点击进行留言回复,万千网友为您解惑!

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值