猿人学第17题、第19题

        17题使用的是http2,而requests库使用的是http1,所以需要引入httpx库来做,注意需要将cookie中的sessionid改为自己的id。

pip install httpx
pip install httpx[http2]
import httpx

headers = {
    'accept': 'application/json, text/javascript, */*; q=0.01',
    'accept-language': 'zh-CN,zh;q=0.9',
    'cache-control': 'no-cache',
    'cookie': 'sessionid=t0h2emsm1blefhw20i88wobodk8uyz1x; Hm_lvt_c99546cf032aaa5a679230de9a95c7db=1720666756,1720683763,1720695275,1720751878; HMACCOUNT=135DEA475AA0E00B; no-alert3=true; Hm_lvt_9bcbda9cbf86757998a2339a0437208e=1720666878,1720683770,1720695279,1720751881; m=5HCsUCAhq6VU4HujMujwxaW0Ffxk1YzQkr%2Bmb4VWs9OmmtNxRpn7pWUl0hDVoxj9E3SXPHz8UvKLfkf272Q1yAmcB7XXZMjRCc1oTB1xJPUUjD2XstY8Gcga%2BPch5xQsj6iZg7t1Oh0QtXglfBhZKYpbuKplWhbEOvSd%2BkSJjCv8FvHg5tHypKumT5xgeJX5%2Fo%2FAsMjrTfUXJRtyBWhURmsTihFpCDhVqzQ7RWr15W9SleJCRXcUWNL%2FVxPnliTxnlnSlkomGds%2Fyd85E2Aqn1LePngevxRKNyROJ9HL70JV4qn%2FSygjhlNQE6lLDYfZfVcrt0TRpBXz365aD1nM0YQ%3D%3Dr; Hm_lpvt_9bcbda9cbf86757998a2339a0437208e=1720788578; Hm_lpvt_c99546cf032aaa5a679230de9a95c7db=1720788600',
    'pragma': 'no-cache',
    'priority': 'u=0, i',
    'referer': 'https://match.yuanrenxue.cn/match/17',
    'sec-ch-ua': '"Not/A)Brand";v="8", "Chromium";v="126", "Google Chrome";v="126"',
    'sec-ch-ua-mobile': '?0',
    'sec-ch-ua-platform': '"Windows"',
    'sec-fetch-dest': 'empty',
    'sec-fetch-mode': 'cors',
    'sec-fetch-site': 'same-origin',
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36',
    'x-requested-with': 'XMLHttpRequest',
}
client = httpx.Client(http2=True)

data = 0
for page in range(1,6):
    params = (
        ('page', page),
    )

    response = client.get('https://match.yuanrenxue.cn/api/match/17', headers=headers, params=params)
    for num in response.json()['data']:
        data += num['value']
    print(data)

        19题我直接请求成功了,原本还以为是header格式检测,后来搜索发现是ja3指纹检测。指纹检测可以使用curl_cffi库。利用curl_cffi也可以过五秒盾的免费版。

from curl_cffi import requests

# 注意这个 impersonate 参数,指定了模拟哪个浏览器
r = requests.get("https://tls.browserleaks.com/json", impersonate="chrome101")

print(r.json())

对于您提到的错误TypeError: list indices must be integers or slices, not str,这是因为您在访问列表中的元素时使用了字符串作为索引,而列表的索引必须是整数或切片类型。解决这个错误的方法是使用整数或切片来访问列表中的元素。 关于您提到的猿人js逆向的问,我需要更多的信息才能为您提供具体的答案。对于爬虫编写,您可以使用Python的各种库(如Requests、BeautifulSoup、Scrapy等)来获取网页的内容,并进一步解析和处理。您可以使用这些库发送HTTP请求获取网页内容,然后使用解析库来提取您需要的数据。 爬虫编写的一般步骤如下: 1. 导入所需的库 2. 发送HTTP请求获取网页内容 3. 使用解析库解析网页内容 4. 提取所需的数据 5. 进行数据的进一步处理和存储 您可以根据具体的需求和网站的结构进行相应的编写和调试。如果您需要更具体的帮助,请提供更多的信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python:TypeError: list indices must be integers or slices, not str报错解决及原理](https://blog.csdn.net/hhd1988/article/details/128031602)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [Python BeautifulSoup [解决方法] TypeError: list indices must be integers or slices, not str](https://download.csdn.net/download/weixin_38590567/14871394)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值