猿人学爬虫攻防大赛 | 第三题: 访问逻辑 - 推心置腹

猿人学爬虫攻防大赛 | 第三题: 访问逻辑 - 推心置腹

其实这道题已经写了好久了,一直放在电脑里好久,最近想起来了,就运行一下,还是能跑了。那就趁着有空写一下,纪录自己的步伐,顺便分享出来。
我们看一下这道题的名字 访问逻辑 - 推心置腹在这里插入图片描述
那就是跟访问逻辑有关,其实这也给了我们解决的方向。
我们先抓一下包看看,当然仅仅看一页是不够的,要多看几页
在这里插入图片描述
我们可以看到每个请求前都有一个logo请求。
在这里插入图片描述
当我们点第四页或者第五页时,会出现上面的弹窗。这也给了我们提示,与cookie有关。那我们就可以尝试一下。当然这里要用session进行共享cookie,
在经过我的尝试,成功了。还有就是它返回数据是json数据,很好处理。

结果

在这里插入图片描述

代码

# author:Ajian
# 公众号:spiders
# datetime:2020/12/8 17:02
# software:PyCharm

import requests
session = requests.session()
headers = {
    'Host': 'match.yuanrenxue.com',
    'Connection': 'keep-alive',
    'Content-Length': '0',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.55',
    'Accept': 'application/json, text/javascript, */*; q=0.01',
    'Origin': 'http://match.yuanrenxue.com',
    'Referer': 'http://match.yuanrenxue.com/match/3',
    'Accept-Encoding': 'gzip, deflate',
    'Accept-Language': 'zh-CN,zh;q=0.9',
}
session.headers = headers
list = []
for page in range(1,6):
    if page>=4:
        headers['User-Agent'] = 'yuanrenxue.project'
    else:
        pass
    url_logo = 'http://match.yuanrenxue.com/logo'
    res = session.post(url_logo)
    print(res)
    print(res.cookies)
    url_page = 'http://match.yuanrenxue.com/api/match/3?page={}'.format(page)
    response = session.get(url=url_page,headers=headers)
    data_list = response.json()['data']
    list1 = [float(i['value']) for i in data_list]
    list.extend(list1)
    print(list)
set = set(list)
dic={}
for i in set:
    dic[i] = list.count(i)
print(dic)
max = 0
result = 0
for key in dic.keys():
    if dic[key]>=max:
        max = dic[key]
        result = key
        print(result,max)

好了,这一期到此结束,我们下期再见。
感觉可以的点个赞,顺便关注一下Ajian公众号(spiders).下面是二维码
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对于您提到的错误TypeError: list indices must be integers or slices, not str,这是因为您在访问列表中的元素时使用了字符串作为索引,而列表的索引必须是整数或切片类型。解决这个错误的方法是使用整数或切片来访问列表中的元素。 关于您提到的猿人js逆向的问,我需要更多的信息才能为您提供具体的答案。对于爬虫编写,您可以使用Python的各种库(如Requests、BeautifulSoup、Scrapy等)来获取网页的内容,并进一步解析和处理。您可以使用这些库发送HTTP请求获取网页内容,然后使用解析库来提取您需要的数据。 爬虫编写的一般步骤如下: 1. 导入所需的库 2. 发送HTTP请求获取网页内容 3. 使用解析库解析网页内容 4. 提取所需的数据 5. 进行数据的进一步处理和存储 您可以根据具体的需求和网站的结构进行相应的编写和调试。如果您需要更具体的帮助,请提供更多的信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python:TypeError: list indices must be integers or slices, not str报错解决及原理](https://blog.csdn.net/hhd1988/article/details/128031602)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [Python BeautifulSoup [解决方法] TypeError: list indices must be integers or slices, not str](https://download.csdn.net/download/weixin_38590567/14871394)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值