猿人学第三题

目标地址:第三题 罗生门 - 猿人学

首先抓包看然后看一下启动器,进入到js中:

可以看到在ajax中定义了一个beforeSend,这个不清楚什么意思,直接百度看到是在发送请求前,那这段代码的意思就是在发送页面接口前,先发送一个/jssm的请求,那直接去看这个请求干了什么。

可以看到他在这里设置了一个cookie,那么大概率就是先通过这个jssm接口获取cookie然后再进行获取数据了,

那就直接发包看看能不能获取到

 发现被没有返回cookie,那这就奇怪了啊,我重放能拿到cookie,但是自己发包却不行。

按照请求原理,把请求头拿过来直接用原请求头理论上是没有问题的,但是不知道为什么不好使,终于经过我一系列百度的情况下得知requests的header排序是会按照默认顺序进行排序的而session则不会,那么接下来直接定义session就ok啦

附上源码:

import requests
from collections import Counter
import numpy as np

proxy = {
    "http": "http://127.0.0.1:8888",
    "https": "http://127.0.0.1:8888"
}
value_sum = []
for i in range(1, 6):

    session = requests.session()
    session.headers = {
        'content-length': '0',
        'pragma': 'no-cache',
        'cache-control': 'no-cache',
        'sec-ch-ua': '"Google Chrome";v="113", "Chromium";v="113", "Not-A.Brand";v="24"',
        'sec-ch-ua-mobile': '?0',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36',
        'sec-ch-ua-platform': '"Windows"',
        'accept': '*/*',
        'origin': 'https://match.yuanrenxue.cn',
        'sec-fetch-site': 'same-origin',
        'sec-fetch-mode': 'cors',
        'sec-fetch-dest': 'empty',
        'referer': 'https://match.yuanrenxue.cn/match/3',
        'accept-encoding': 'gzip, deflate, br',
        'accept-language': 'zh-CN,zh;q=0.9',
        'Cookie': 'Hm_lvt_c99546cf032aaa5a679230de9a95c7db=1689909110;Hm_lvt_9bcbda9cbf86757998a2339a0437208e=1689909111;'
                  'Hm_lpvt_9bcbda9cbf86757998a2339a0437208e=1689909111; qpfccr=true; no-alert3=true;'
                  'Hm_lpvt_c99546cf032aaa5a679230de9a95c7db=1689909132;'
    }
    url = "https://match.yuanrenxue.cn/jssm"
    session.request(method='POST', url=url)
    # print(session.cookies.get('sessionid'))
    session.headers['Cookie'] = f"{session.headers['Cookie']} sessionid={session.cookies.get('sessionid')};"
    url = f"https://match.yuanrenxue.cn/api/match/3?page={i}"
    result = session.request(method='GET', url=url)
    if result.json()['state'] == "success":
        print(result.json()['data'])
        value_sum += [v['value'] for v in result.json()['data']]

# 使用Counter计算元素频率
element_counts = Counter(value_sum)

# 使用most_common方法找出频率最高的元素及其频率
most_common_element, frequency = element_counts.most_common(1)[0]
print(value_sum)
print("频率最高的元素是:", most_common_element)
print("它出现的次数是:", frequency)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
对于您提到的错误TypeError: list indices must be integers or slices, not str,这是因为您在访问列表中的元素时使用了字符串作为索引,而列表的索引必须是整数或切片类型。解决这个错误的方法是使用整数或切片来访问列表中的元素。 关于您提到的猿人js逆向的问,我需要更多的信息才能为您提供具体的答案。对于爬虫编写,您可以使用Python的各种库(如Requests、BeautifulSoup、Scrapy等)来获取网页的内容,并进一步解析和处理。您可以使用这些库发送HTTP请求获取网页内容,然后使用解析库来提取您需要的数据。 爬虫编写的一般步骤如下: 1. 导入所需的库 2. 发送HTTP请求获取网页内容 3. 使用解析库解析网页内容 4. 提取所需的数据 5. 进行数据的进一步处理和存储 您可以根据具体的需求和网站的结构进行相应的编写和调试。如果您需要更具体的帮助,请提供更多的信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python:TypeError: list indices must be integers or slices, not str报错解决及原理](https://blog.csdn.net/hhd1988/article/details/128031602)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [Python BeautifulSoup [解决方法] TypeError: list indices must be integers or slices, not str](https://download.csdn.net/download/weixin_38590567/14871394)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

~贝母~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值