js逆向
学习
一位路过的程序员
这个作者很懒,什么都没留下…
展开
-
python Spider中使用nodejs技巧
爬虫中使用nodejs技巧原创 2022-11-25 18:10:10 · 411 阅读 · 0 评论 -
accept-encoding导致乱码问题
Accept-Encoding: gzip,deflate这个头信息是告诉服务器客户端所支持的压缩方式(然而数据压缩了但没有自动转,就会导致乱码)没有这个头信息说明客户端不支持压缩,要求不压缩直接返回文本原创 2022-05-27 14:28:22 · 620 阅读 · 0 评论 -
js逆向--寻找加密字段位置原来这么简单
最近看到一篇非常简单明了的文章,告诉我们如何寻找加密字段链接:https://blog.csdn.net/weixin_43582101/article/details/112916497原创 2022-03-24 14:22:54 · 580 阅读 · 0 评论 -
requests post请求失败(data中含有子字典)
data = { "text": "你好啊~", "uid": "6787517689", "extensions": json.dumps({"clientid": "xxxxxxxxxxxxx"}), "is_encoded": "0", "decodetime": "1", "source": "xxx" }res = requests.post('url="xxx", headers="xxx", data=data')如上写法是可以请求成功的,但如果data写成这样:data = { "te原创 2022-03-01 17:17:59 · 1874 阅读 · 1 评论 -
使用Mitmdump 抓取app有关https 时出现 Cannot establish TLS with client错误
使用Mitmdump 抓取app有关https 时出现 Cannot establish TLS with client错误转载 2022-01-06 18:01:49 · 844 阅读 · 0 评论 -
爬虫操作(解决样例二)
然后打开sources, 其中有一个文档在一个js文件中发现了一个相同的字段,以及动态加密参数对应了一个字段且为请求data中的wordToken,因此我们可以通过这个文档来获得动态加密参数原创 2021-07-02 16:05:31 · 167 阅读 · 2 评论 -
遇到经常被反爬虫的有效操作一(cookie)
反爬虫操作中有一种就是借助cookie, 你如果每请求一个url都是res = requests.get(url, headers)那就会产生一个新的cookie,就是说如果你爬虫一个网站里1000条数据,那就会产生1000条cookie,这是对方会认为你是恶意访问,因此禁止你的请求(封ip是其中常见的操作,我遇到的)为解决此问题可以用一下代码:import requestssession = requests.session()headers_ = {"User-Agent": UserAgen原创 2021-06-07 15:13:03 · 594 阅读 · 0 评论 -
随机生成验证码、13位随机数(爬虫会用到)
#利用ord()和chr() 编码函数import randomdef make_code(size=7)res = ‘’for i in range(size)# 循环一次则得到一个随机字符(字母数字)s = chr(random.randint(65, 90))num = str(random.randint(0, 9))res += random.choice([s, num])return resres=make_code()print(res)...原创 2020-07-09 20:45:59 · 858 阅读 · 0 评论 -
重定向问题:Exceeded 30 redirects.
对于一个网站,使用requests库直接访问:r = requests.get(url)如果该网站发生了重定向,可能不会显示出来,返回状态码为200,因为requets库自动处理了重定向请求,如果网站在不断重定向,则会发生Python Requests: requests.exceptions.TooManyRedirects: Exceeded 30 redirects的问题,可以设置一个参数禁止重定向:r = requests.get(url, allow_redirects=False)(默认all转载 2021-05-31 18:13:42 · 1340 阅读 · 0 评论 -
爬虫中非异步数据,xpath定位不到元素--tbody的坑
放链接:https://segmentfault.com/a/1190000020745762转载 2021-05-26 16:52:33 · 434 阅读 · 0 评论 -
爬虫 code为200,但页面错误的问题
先放输出结果E:\Python38\python.exe E:/PycharmProjects/test.pyhttp://www.szse.cn/api/disc/announcement/annList?random=0.16208973259833276<Response [200]><!DOCTYPE html><html> <head> <meta charset="utf-8"> <link href原创 2021-05-13 17:30:33 · 5247 阅读 · 0 评论