pdd网页版anti_content

写在前面

本文章中所有内容仅供学习交流,抓包内容、敏感网址、数据接口均已做脱敏处理,严禁用于商业用途和非法用途,否则由此产生的一切后果均与作者无关,若有侵权,请联系我立即删除!

目的

获取商品的接口列表
在这里插入图片描述

加密字段——anti_content

从下列的图片可以发现anti_content被加密了

断点

搜索大法搜索anti_content字段
在这里插入图片描述
可以发现只有一处,直接进去
将断点打到下图位置
在这里插入图片描述
进去Object(x,a)函数
在这里插入图片描述
进去y函数
继续按照下图打断点
在这里插入图片描述
再进去n.messagePackSync函数
可以发现函数被混淆了,不用慌,按照下图端点继续打
在这里插入图片描述
在这里插入图片描述
按照箭头所指的ct在控制台输出就找到加密函数入口位置
在这里插入图片描述

扣代码

进去ct函数发现套了ob,仔细发现可以发现该字段失效的原因就是因为时间的缘故,下图三个箭头所指的位置就是利用时间戳进行加密出来的数组。
在这里插入图片描述
可以仔细的对三个变化的数组进行追栈,模拟加密过程。
然后模拟完加密过程之后来到下图位置
在这里插入图片描述
由于这个函数是从webpack出来的,纯扣太费时间,于是利用webpack的方式导出。这个函数是在5号,除此之外还需要下图的函数
在这里插入图片描述
附上分发器代码

var aaa;

!function(e) {
    var t = {};
    function r(n) {
        if (t[n])
            return t[n].exports;
        var o = t[n] = {
            i: n,
            l: !1,
            exports: {}
        };
        console.log(n)
        return e[n].call(o.exports, o, o.exports, r),
        o.l = !0,
        o.exports
    }
    aaa = r;
}({})

然后按照上图的序号找齐函数就可以运行了。如果是ob混淆可以通过控制台手动还原,也可以AST进行还原。将三个变化的加密数组加密函数找齐,webpack的函数找齐,就成功了。

效果图

anti_content加密结果如下
在这里插入图片描述
运行结果如下
在这里插入图片描述
成功获取到商品列表。

爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值