python爬虫之cookies与session配置

文章介绍了如何在Chrome浏览器中启用保留日志功能,以便抓取登录页面的数据,包括使用requests库发送POST请求,设置User-Agent和cookies,以及通过requests.session()方法获取登录后的页面信息。
摘要由CSDN通过智能技术生成

要从登陆页面获取相关数据,记得要用Chrome谷歌浏览器,其他浏览器可能布局有差别。

要打开谷歌浏览器的保留日志功能,这样登录信息会继续保留在列表里,点开链接可以查看载荷里的数据,即用户名密码等相关登录信息。

app.py

import requests

url = "https://api.cheshi.com/services/common/api.php?api=login.Login"
headers = {
    "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Core/1.94.201.400 QQBrowser/11.9.5325.400"
}
data = {
    "act": "login",
    "mobile": "手机号",
    "source": "pc",
    "password": "登录密码",
    "hold_time": "yes",
}

# res = requests.post(url=url, headers=headers, data=data)
# cookies = res.cookies
# admin_url = "https://my.cheshi.com/user/"
# admin_res = requests.get(url=admin_url, headers=headers, cookies=cookies)

# with open("./app.html", "w", encoding="utf-8") as f:
#     f.write(admin_res.text)

session = requests.session()
session.post(url=url, headers=headers, data=data)
admin_url = "https://my.cheshi.com/user/"
admin_res = session.get(url=admin_url, headers=headers)
print(admin_res.text)
with open("./app2.html", "w", encoding="utf-8") as f:
    f.write(admin_res.text)

可以只用cookies来进行操作,即被注释掉的代码:

res = requests.post(url=url, headers=headers, data=data)
cookies = res.cookies
admin_url = "https://my.cheshi.com/user/"
admin_res = requests.get(url=admin_url, headers=headers, cookies=cookies)

with open("./app.html", "w", encoding="utf-8") as f:
    f.write(admin_res.text)

使用request.session()比cookies代码要简洁一点点。最后都获取到了登录后的页面信息。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

andux

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值