【非常简单】 猿人学web第一届 第13题 入门级 cookie

查看数据接口 https://match.yuanrenxue.cn/api/match/13
在这里插入图片描述
请求参数只携带了 page 页码
在这里插入图片描述

请求时需要携带 cookie yuanrenxue_cookie字段
在这里插入图片描述

在请求的时将 cookie 中对应的 yuanrenxue_cookie 字段删除
在这里插入图片描述

勾选事件监听断点中的脚本断点后刷新页面即可看到 cookie 生成的位置
在这里插入图片描述
在这里插入图片描述
这段代码是在 script 标签里的,可以用 正则匹配

使用 subprocess 输出 cookie 信息即可

对应 python 代码

import subprocess
import requests

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36"
}
cookies = {
    "sessionid": "你的sessionId",
}


def get_yuanrenxue_cookie(js_code):
    command = "node -e " + js_code + ';\n' + 'console.log(cookie)'
    output = subprocess.check_output(command)
    return output.strip().split('=')[1].split(';')[0]


def send_match13():
    url = "https://match.yuanrenxue.cn/match/13"
    response = requests.get(url, headers=headers, cookies=cookies)
    js_code = re.findall("(cookie=.*?';path=/')", response.text)[0]
    cookies['yuanrenxue_cookie'] = get_yuanrenxue_cookie(js_code)

完整的 python 代码

import re
import subprocess
import requests

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36"
}
cookies = {
    "sessionid": "你的SessionId",
}


def get_yuanrenxue_cookie(js_code):
    command = "node -e " + js_code + ';\n' + 'console.log(cookie)'
    output = subprocess.check_output(command)
    return output.strip().split('=')[1].split(';')[0]


def send_match13():
    url = "https://match.yuanrenxue.cn/match/13"
    response = requests.get(url, headers=headers, cookies=cookies)
    js_code = re.findall("(cookie=.*?';path=/')", response.text)[0]
    cookies['yuanrenxue_cookie'] = get_yuanrenxue_cookie(js_code)


def send_data(page_):
    url = "https://match.yuanrenxue.cn/api/match/13"
    params = {
        "page": f"{page_}"
    }
    response = requests.get(url, headers=headers, cookies=cookies, params=params)
    return response.json()['data']


if __name__ == '__main__':
    send_match13()
    nums = 0
    for page in range(1, 6):
        nums_list = send_data(page)
        for num in nums_list:
            nums += num['value']
        print('page: ', page, 'nums: ', nums)
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对于您提到的错误TypeError: list indices must be integers or slices, not str,这是因为您在访问列表中的元素时使用了字符串作为索引,而列表的索引必须是整数或切片类型。解决这个错误的方法是使用整数或切片来访问列表中的元素。 关于您提到的猿人js逆向的问,我需要更多的信息才能为您提供具体的答案。对于爬虫编写,您可以使用Python的各种库(如Requests、BeautifulSoup、Scrapy等)来获取网页的内容,并进一步解析和处理。您可以使用这些库发送HTTP请求获取网页内容,然后使用解析库来提取您需要的数据。 爬虫编写的一般步骤如下: 1. 导入所需的库 2. 发送HTTP请求获取网页内容 3. 使用解析库解析网页内容 4. 提取所需的数据 5. 进行数据的进一步处理和存储 您可以根据具体的需求和网站的结构进行相应的编写和调试。如果您需要更具体的帮助,请提供更多的信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python:TypeError: list indices must be integers or slices, not str报错解决及原理](https://blog.csdn.net/hhd1988/article/details/128031602)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [Python BeautifulSoup [解决方法] TypeError: list indices must be integers or slices, not str](https://download.csdn.net/download/weixin_38590567/14871394)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值