拼多多Anti-content逆向

挂上代理,缺什么补什么,代理代码如下:

// proxy代理声明
function proxy_watch(obj) {

   return new Proxy(obj, {
       get(target, p, receiver) {
           debugger;
           let val = Reflect.get(...arguments);
           console.log("get", target, "=获取属性>", p, "=值>", val);
           return val;
      },
       set(target, p, value, receiver) {
           debugger;
           console.log("set", target, "=设置属性>", p, "=值>", value);
           return Reflect.set(...arguments);
      }
  });
};
// 一、补充window环境
window = {}

window = this

Window = function Window() {

}

Object.setPrototypeOf(window, Window.prototype)

Window.prototype.setTimeout = function setTimeout(){

}

//二、补充 document
document = {
   referrer: ''
}

Document = function Document() {

}
Object.setPrototypeOf(document, Document.prototype)


Document.prototype.addEventListener = function () {

}

//三、补充 location
location = {
   href: 'https://mobile.pinduoduo.com/',
   protocol: 'https:',
}

Location = function Location() {

}

Object.setPrototypeOf(location, Location.prototype)

// 四、补充 navigator
navigator = {
   userAgent: 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36'
}

Navigator = function Navigator() {

}
Object.setPrototypeOf(navigator, Navigator.prototype)

Navigator.prototype.hasOwnProperty = function () {
   return true
}

// 五、补充 screen
screen = {
   // width: 1728,
}

Screen = function Screen() {

}
Object.setPrototypeOf(screen, Screen.prototype)


// 六、补充 history对象
history = {}
History = function History() {

}
Object.setPrototypeOf(history, History.prototype)
History.prototype.back = function () {

}


// 代理对象设置
window = proxy_watch(window)
document = proxy_watch(document)
location = proxy_watch(location)
navigator = proxy_watch(navigator)

结果如下:

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
多多Anti-Content是一个参数,用于对多多的内容进行加密和解密。关于多多Anti-Content参数的具体解释和使用方法,有一些可用的API和代码片段。根据引用,可以通过对多多的API进行逆向分析来解析Anti-Content参数的加密方式。根据引用,可以通过查找多多的SearchViewUI.js文件中的anti_content关键字,定位到相应的代码位置进行调试。而根据引用,可以通过使用window.rose()方法来获取anti_content的值,并在代码中进行相应的操作。综上所述,多多Anti-Content参数用于加密和解密多多的内容,在具体实现中需要参考相关的API和代码片段。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [多多anti_content参数加密逆向JS 最新可用](https://download.csdn.net/download/qq_40609990/85346660)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [【JavaScript 逆向多多 anti_content 参数逆向解析](https://blog.csdn.net/Yy_Rose/article/details/127508765)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值