js逆向-某多多anti_content参数分析

声明

本文仅供学习参考,请勿用于其他途径,违者后果自负!


前言

参考:https://blog.csdn.net/m0_51159233/article/details/123910391
https://www.bilibili.com/video/BV1eK411R7m4/?spm_id_from=333.788.top_right_bar_window_history.content.click&vd_source=10c884d9220b52b21952d6916facf586
目标网站:aHR0cHM6Ly9tb2JpbGUueWFuZ2tlZHVvLmNvbS8=
目标参数: anti_content

参数分析

打开F12开始抓包,我们将首页中的推荐商品一直向下翻,直到找到如下接口,里面就有我们需要逆向的参数anti_content
在这里插入图片描述

在这里插入图片描述
确定过目标后,直接搜索。
在这里插入图片描述

逆向分析

结果不多直接点进去,搜索得出五个结果。因为不确定哪个是需要的,都打上断点,然后继续往下翻页面。
在这里插入图片描述
在这里断下来了,为了不必要的干扰可以把其他的断点都清除掉。
在这里插入图片描述
r = e.sent。而e.sent就是anti_content,通过分析这一行代码可以看到将e.sent赋值给r,然后又将r赋值给anti_content,这样就得出了结果。

在寻找e.sent的生成的时候发现了at.a.getAntiContent这个函数,通过函数名就知道这个函数生成了我们需要的参数,在这里打下断点,重新断下。

F11单步跟栈。
在这里插入图片描述
这里用了较多的promise,所以跟栈的时候需要耐心一些。

在这里插入图片描述
在跟到这一步的时候发现给了很多明文的提示,在关键的地方打下断点继续跟进。

在漫长的跟栈过程中,直到这个地方才得到我们所需要的结果。
在这里插入图片描述
需要的部分简化出来如下:

e[n(558, "[k*i")](Le)

在这里插入图片描述
通过console输出发现返回的是参数函数,也就是Le()函数。
往上翻了翻发现是一个webpak打包的js文件,
在这里插入图片描述

扣代码

对于webpack就是那几大件:分发器、所需模块、导出函数。
把这几个东西给搞好,基本就成了。

将整个文件全部拷贝到本地,找到所需的代码,适当的修改。

整理完后结果:

在这里插入图片描述

想要使用也很简单,设置一个全局变量作为导出函数。

window.xxx = Le 

前文得知Le最终返回的结果就是anti_content,所以这样设置一个全局变量然后调用就可以了。

运行之后发现抱错。
在这里插入图片描述

通过搜索得知这是一个浏览器的属性
在这里插入图片描述这里贴上查询链接:https://developer.mozilla.org/zh-CN/docs/Web/API/

遇到本地执行有问题时,将代码放到浏览器中运行一下。这样做的好处时浏览器拥有所需的全部环境,遇到环境问题直接降维打击。

在这里插入图片描述
可以看到浏览器没有任何问题,我们运行代码希望是本地能够直接运行而不是一直挂一个浏览器。所以剩下的内容是直接补环境。

有两种方式可以完成:
         1、使用jsDom;
         2、手动补环境;

使用jsDom之前要先安装。

npm install jsdom

然后在文件开头放上如下代码:

const jsdom = require('jsdom')
const {JSDOM} = jsdom
const dom = new JSDOM('<!DOCTYPE html><p>hello world</p>>');
window = dom.window
document = window.document
XMLHttpRequest = window.XMLHttpRequest

这样就完成了,非常简单快捷。第二种就是手动补,缺什么补什么,更加考验耐心。

总结

1、大量使用promise,增加了调试难度;
2、使用了webpack将代码拆分;
3、检测了浏览器指纹(属性)

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
多多的Anti-Content是一个参数,用于对拼多多的内容进行加密和解密。关于拼多多的Anti-Content参数的具体解释和使用方法,有一些可用的API和代码片段。根据引用,可以通过对拼多多的API进行逆向分析来解析Anti-Content参数的加密方式。根据引用,可以通过查找拼多多的SearchViewUI.js文件中的anti_content关键字,定位到相应的代码位置进行调试。而根据引用,可以通过使用window.rose()方法来获取anti_content的值,并在代码中进行相应的操作。综上所述,拼多多的Anti-Content参数用于加密和解密拼多多的内容,在具体实现中需要参考相关的API和代码片段。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [拼多多anti_content参数加密逆向JS 最新可用](https://download.csdn.net/download/qq_40609990/85346660)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [【JavaScript 逆向】拼多多 anti_content 参数逆向解析](https://blog.csdn.net/Yy_Rose/article/details/127508765)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值