scrapy利用登陆后的cookie请求人人网个人主页

获取cookie

首先在本地浏览器手动打开人人网登陆页面,键入帐号密码登陆到个人主页,点击大鹏董成鹏页面,在浏览器上获取到当前页面的cookie字符串信息如下:
anonymid=k6li2urqmmt9jn; r01=1; taihe_bi_sdk_uid=47b05d5b6248dcc6bfdb17ccb7e300ea; jebe_key=47aa4a50-a3c8-40ca-9db7-4f2bc30b2698%7Cf53e32baff17067fc2a3314328abf6f5%7C1581644213414%7C1%7C1581644225324; depovince=ZGQT; JSESSIONID=abcfFdaSA0QD2d1p4sdmx; ick_login=fc47a3b9-0c47-44fe-ade3-9e6d5b3fe632; taihe_bi_sdk_session=eda59d8bd55d0b638faa357f44e151fe; ick=e432aac9-4d6a-433c-8fd6-1f3d55c32c2c; __utma=151146938.130496749.1593488178.1593488178.1593488178.1; __utmc=151146938; __utmz=151146938.1593488178.1.1.utmcsr=renren.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmb=151146938.1.10.1593488178; jebecookies=8d94a419-6a35-4e35-8777-f1f26d9a950b|||||; _de=5389E98C12C7F6A2406083BE9D97C8CE; p=d35644c2155672cbf8a17f61337261418; first_login_flag=1;

在scrapy的spider文件中重写start_requests方法

    def start_requests(self):
        cookies_str = "anonymid=k6li2urqmmt9jn; _r01_=1; taihe_bi_sdk_uid=47b05d5b6248dcc6bfdb17ccb7e300ea; jebe_key=47aa4a50-a3c8-40ca-9db7-4f2bc30b2698%7Cf53e32baff17067fc2a3314328abf6f5%7C1581644213414%7C1%7C1581644225324; depovince=ZGQT; JSESSIONID=abcfFdaSA0QD2d1p4sdmx; ick_login=fc47a3b9-0c47-44fe-ade3-9e6d5b3fe632; taihe_bi_sdk_session=eda59d8bd55d0b638faa357f44e151fe; ick=e432aac9-4d6a-433c-8fd6-1f3d55c32c2c; __utma=151146938.130496749.1593488178.1593488178.1593488178.1; __utmc=151146938; __utmz=151146938.1593488178.1.1.utmcsr=renren.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmb=151146938.1.10.1593488178; jebecookies=8d94a419-6a35-4e35-8777-f1f26d9a950b|||||; _de=5389E98C12C7F6A2406083BE9D97C8CE; p=d35644c2155672cbf8a17f61337261418; first_login_flag=1; ln_uact=17835704219; ln_hurl=http://head.xiaonei.com/photos/0/0/men_main.gif; t=97a71838c4d1d0e0bb518da9263f56de8; societyguester=97a71838c4d1d0e0bb518da9263f56de8; id=974301188; xnsid=fcb2f778; ver=7.0; loginfrom=null; wp_fold=0; jebe_key=47aa4a50-a3c8-40ca-9db7-4f2bc30b2698%7C7509c9b571970a73aca0fcf7b197de35%7C1593488543944%7C1%7C1593488546025"
        cookies_dict = {i.split("=")[0]:i.split("=")[1] for i in cookies_str.split("; ")}
        yield scrapy.Request(
            self.start_urls[0],
            callback=self.parse,
            cookies=cookies_dict
        )

注意的是需要将cookie字符串转化成字典类型

在parse方法中验证是否请求成功

    def parse(self, response):
        print(re.findall(r"大鹏董成鹏", response.body.decode()))

这里验证请求道的response中是否有"大鹏董成鹏"字符串
验证结果如下:
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
A:使用scrapy模拟登陆大众点评网的步骤如下: 1. 在settings.py中添加COOKIES_ENABLED=True,开启cookies支持; 2. 在spider中编写start_requests方法,发送GET请求到大众点评的登录页面,获取登录页面的cookie; 3. 编写parse方法,解析登录页面的源代码,提取出登录时需要的参数、加密token等信息; 4. 编写一个登录方法,使用加密token和传递用户名和密码设置POST请求,将用户凭证提交到登录页面; 5. 再次编写parse方法,使用selenium打开登录页面,成功登录后,提取响应页面的cookie; 6. 在后续的请求中使用该cookie,以保持用户的登录状态。 具体实现代码如下: ```python import scrapy from scrapy.http import FormRequest from selenium import webdriver class DianPing(scrapy.Spider): name = 'dianping' allowed_domains = ['www.dianping.com'] start_urls = ['https://account.dianping.com/login'] def start_requests(self): yield scrapy.Request(url=self.start_urls[0], callback=self.parse, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, }, 'selenium': True }) def parse(self, response): # 获取cookie cookie = response.headers.getlist('Set-Cookie') cookie = [c.decode('utf-8').split(';')[0] for c in cookie] cookie = '; '.join(cookie) # 获取加密token token = response.css('input[name="token"]::attr(value)').extract_first() # 提交登录请求 yield FormRequest.from_response(response, formdata={ 'account': 'your_username', 'password': 'your_password', 'token': token, 'redir': 'https://www.dianping.com', 'rememberMe': 'true', }, headers={ 'Cookie': cookie, }, callback=self.after_login, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, }, 'selenium': True }) def after_login(self, response): # 使用selenium打开登录页面,获取cookie if '登录' not in response.body.decode('utf-8'): driver = response.meta['driver'] driver.get(response.url) cookies = driver.get_cookies() cookie_dict = {} for cookie in cookies: cookie_dict[cookie['name']] = cookie['value'] yield scrapy.Request( url='https://www.dianping.com/', cookies=cookie_dict, callback=self.parse_homepage, meta={ 'splash': { 'endpoint': 'render.html', 'args': {'wait': 0.5}, } } ) def parse_homepage(self, response): print(response.body) ``` 上述代码中,我们通过在start_requests的meta中添加了splash和selenium参数,使得start_requests方法使用splash和selenium的渲染能力来处理请求。在parse方法中,我们获取了登录页面的cookie和加密token,并设置了POST请求,将用户凭证提交到登录页面。在after_login方法中,我们使用selenium打开登录页面,并在parse_homepage方法中解析响应页面的源代码。最后,在后续的请求中使用获取到的cookie即可保持用户的登录状态。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值