python 爬虫 cookies_Python 爬虫:Cookies 的连续获取

本文介绍了在Python爬虫中如何处理需要Cookies的场景,通过获取登录页面的Cookies,然后合并登录接口返回的Cookies,解决请求超时问题。强调了完善Headers信息的重要性,以及在编写爬虫时保持请求参数完整性的建议。
摘要由CSDN通过智能技术生成

问题引入

日常在编写一些自用爬虫时,通常为了方便是直接从浏览器的开发者工具中调取 cookies 字符串,然后再进行字典的转换供 requests 库使用。

6e4bd63d73dc

cookies

class transCookie:

def __init__(self, cookie):

self.cookie = cookie

def stringToDict(self):

itemDict = {}

items = self.cookie.split(';')

for item in items:

key = item.split('=')[0].replace(' ', '')

value = item.split('=')[1]

itemDict[key] = value

return itemDict

if __name__ == "__main__":

cookie = input('please input cookies str: ')

trans = transCookie(cookie)

print(trans.stringToDict())

但如果把程序给没有开发基础的人使用时,他们首先要打开浏览器的开发者工具,然后再切换到 Network 选项卡,再分析请求来获取 cookies,最后进行转换,这一过程是十分漫长的,也会让第一次接触的人望而生畏,甚至对一些门外汉而言,会觉得你写的程序未免也太过低端,还需要这么多前置条件,不能够直接上手。

问题解决

今天在给一个朋友写爬虫脚本时,就突然考虑到了这个用户友好的问题,思索一番之后觉得还是直接让人输入用户名密码,多发一个登陆请求来在程序里直接拿到 cookies 就很舒服了。

import requests

import random

url = 'http://jkjmjzs.jinke.com/weixin/wxAction2.ashx?t=LD&rand=%s' % random.random()

payloads = {

'LoginID': 'username',

'Password': 'password',

'RememberPwd': 0

}

response = requests.post(url, data = payloads)

但是在直接调用 login 接口时,服务器端总是返回请求超时。

首先想到的是完善 headers 的信息,于是添加如下参数:

headers = {

'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',

'Referer': 'http://jkjmjzs.jinke.com/weixin/wxLogin.aspx'

}

response = requests.post(url, data = payloads, headers = headers)

结果依然不理想,仍然是服务器超时,这期间额外添加了更多的 headers 头部信息,诸如 Host、Origin、Content-Type 等,但仍然没有达到想要的效果。

在仔细观察请求的往复后,发现在发送 Login Post 时,已经携带了两个字段的 cookies 信息,一时之间没有想通它们是从什么时候被携带进入浏览器的,但隐隐觉得可能这就是不被服务器识别的关键之处。

6e4bd63d73dc

Login Post

其实仔细一想就很清楚,在提交登录表单之前,只与服务器有过一次交互,就是请求登录页面,验证之后发现果然如此:

6e4bd63d73dc

Get Login Page

可以清晰的看到,Reponse Headers 中,Set-Cookie 一栏有相应的 token 设置。

于是乎流程就很明朗了,要先请求一次登录页面,拿到服务器端要求设置的 cookies 之后,放置在登录接口中,再将原 cookies 与登录接口返回的 cookies 进行合并,后续的 requests 请求只需要加上拼接好的 cookies 即可正常的进行数据获取。

headers = {

'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',

'Referer': 'http://jkjmjzs.jinke.com/weixin/wxLogin.aspx'

}

url = 'http://jkjmjzs.jinke.com/weixin/wxLogin.aspx'

response = requests.get(url)

cookies = response.cookies.get_dict()

print(cookies)

url = 'http://jkjmjzs.jinke.com/weixin/wxAction2.ashx?t=LD&rand=%s' % random.random()

payloads = {

'LoginID': 'username',

'Password': 'password',

'RememberPwd': 0

}

response = requests.post(url, data = payloads, headers = headers, cookies = cookies)

cookies.update(response.cookies.get_dict())

print(cookies)

问题总结

由以上分析可以得到一些经验教训,即在某些前置页面的请求时,可能会返回一些对后续请求有用的关键信息,这些信息不仅仅存在于返回的数据中,也有一定可能存在于 cookies 中,在后续的爬虫编写中,遇到类似问题可以考虑从这方面进行着手解决。

除此之外,还有以下几点值得注意:

在服务器返回异常时,务必要完善 headers 的信息,就目前的爬虫编写经验来看,User-Agent 与 Referer 是比较常用的,许多后台都会对它们进行校验,当然遇到特殊情况可一步到位,即把浏览器中请求的 headers 信息全部写入程序中

headers = {

'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',

'Referer': 'http://jkjmjzs.jinke.com/weixin/wxLogin.aspx'

}

再者,在日常代码的编写中,为了使得程序可读性更高,通常会主观臆断去省略一些参数,如需要传递的 payloads 表单,一些没有值的 key 会被直接剔除掉,然而这对不同语言承载的后端来说,也会引发与预期不符的结果返回,所以保险起见,还是原样照搬开发者工具中所拦截的所有请求参数,空则赋空值

payloads = {

'Word': '',

'Status': '10',

'MID': '',

'MEnable': '1',

'PageSize': '13',

'PageIndex': page,

'Days': '',

'Date1': '',

'Date2': '',

'Sort': ''

}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值