自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 资源 (6)
  • 收藏
  • 关注

转载 反调试-编译pass彻底解决调试web无限debugger问题

实际中的反调试语句会更加复杂和嵌套各种调试技巧,例如常见的无限制debugger、配合settimeout延迟debugger、代码混淆+debugger等等.但对于Chrome浏览器内置v8就非常无敌超级麻烦要下载工具链,具体请参考网文 V8系统解读(一): V8 在 Chrome 中的位置&编译调试V8。任何代码都必须编译原理几步-词法语法中间代码机器码,js既然要编译,直接在编译时把关键词屏蔽掉/或生成空语句。只编译nodejs比较简单,make -j16 一把梭,使用修改后的node调试即可。

2023-12-16 22:10:19 166

转载 雷电模拟器+fiddler+adb 实现https 抓包(系统证书) 【看本贴就够了!】

①:安装雷电模拟器、fiddler、platform-tools,百度搜索安装即可,本帖 雷电模拟器使用较新版本,系统安卓9②:adb版本统一,雷电模拟器路径里的adb.exe 需要和 platform-tools里的adb.exe统一,用platform-tools里的adb.exe 覆盖 雷电模拟器里的,这一步避免一些不匹配的问题③fiddler配置我这里端口8888view勾选 第一个右上角出现online第一个ip即为本机ip,一会配置模拟器要用。

2023-12-16 22:04:36 3162

原创 过debugger反调试

(() =>{ Function.prototype.__constructor_back = Function.prototype.constructor; Function.prototype.constructor = function() { if (arguments && typeof arguments[0] === 'string') { if ("debugger" === arguments[0]) {

2021-12-23 12:11:45 711

原创 6位纯数字密码字典

6位纯数字密码字典import ospds=[]rg=range(0,10)for first in rg: for second in rg: for three in rg: for four in rg: for five in rg: for six in rg: num= "%s%s%s%s%s%s"%(first,

2020-12-12 19:35:30 5164 1

原创 python RemoveBg api换照片底色

测试了好几个代码,发现还是这个AI的最完美,最蛋疼的是 有各种限制。偶尔用一次还是可以的https://www.remove.bg/zh/注册账号,即可使用APIfrom removebg import RemoveBgrmbg = RemoveBg("YOUR-API-KEY", "error.log")rmbg.remove_background_from_img_file("4.jpg", bg_color='red')#bg_color不写则为透明背景#rmbg.remove_bac

2020-11-29 14:35:23 524

转载 创建1000个线程爬取盗版小说网站,并按章节顺序排列在txt文件里

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、我们先导入所需要的包这里的重点就是3,4两行了,第三行就是我们的重要性排序的队列,没有他我们不可能在多线程里按顺序写入一个文件内容的,当然,写文件肯定是单线程,但是网页请求是1000个线程,强调一下我是指这个网页请求得来的那1000多个回应是无序的,所以我们单线程写文件时无法按顺序写入,而用到PriorityQueue就可以了,第4行是线程池,我们不能说每一次请求都重新创建一个线程吧,创建线程也是会消耗资源的,所以我们建立一

2020-11-27 09:08:34 469

转载 Python3实现的m3u8批量下载器 解密&合并&多线程

①、下载m3u8文件,如果其内容的表示形式是第1种,则还需要再次访问对应的分辨率的url,重新下载m3u8②、解析m3u8,判断是否加密了(需要提取加密方式、加密key、IV),提取ts列表③、多线程下载所有ts(注意别打乱顺序,在m3u8文件中的顺序就是在完整视频中的顺序,所以需要记录原来的顺序,或者按照顺序进行ts重命名)④、合并(如果加密了,则对每个ts解密)⑤、调用FFmpeg,将合并好的视频信息放入一个mp4容器中(直接放在mp4文件也行)⑥、回到①,开始下载下一个m3u8# UTF

2020-11-27 08:28:47 4068 1

原创 Scrapy执行过程

Scrapy执行过程Scrapy执行过程(1)创建爬虫项目scrapy startproject 项目名称(2)创建爬虫文件scrapy genspider 文件名称 域名(3)settings.py设置文件中:USER_AGENG = UA伪装ROBOTSTXT_OBEY = FalseLOG_LEVEL = 'ERROR'(5)爬虫文件中解析数据,例如:店铺信息 = 响应对象.xpath('//div[@class="abc"]/text()').extract()#不要忘记y

2020-11-18 08:31:55 452

原创 【依葫芦画瓢】之 Scrapy 虎牙封面爬取 笔记

【依葫芦画瓢】之 Scrapy 虎牙封面爬取 笔记现学现卖import scrapyimport jsonfrom huya.items import HuyaItemclass HuyaaSpider(scrapy.Spider): name = 'huyaa' allowed_domains = ['www.huya.com'] base_url = 'https://www.huya.com/cache.php?m=LiveList&do=getLive

2020-11-16 10:52:03 101

原创 【依葫芦画葫芦】の Scrapy Dou鱼封面爬取 笔记

【依葫芦画葫芦】の Scrapy Dou鱼封面爬取创建项目后主代码import scrapyimport jsonfrom douyu.items import DouyuItemclass DouyuaSpider(scrapy.Spider): name = 'douyua' allowed_domains = ['https://www.douyu.com'] base_url = 'https://m.douyu.com/api/room/list?page={

2020-11-15 22:44:46 197

原创 【python模板】multiprocessing多进程处理

multiprocessing 多进程处理 【python模板】from multiprocessing import Pool def task(msg,t): print("hello ,%s" %msg) time.sleep(3) if __name__ == "__main__": # 设置进程池数量 pool = Pool(2) for i in range(10): pool.apply_async(task, (i,i))#传入参数 pool.close()

2020-11-14 11:37:57 98

FriDA_HOOK调试工具V1.6.zip

FriDA_HOOK调试工具V1.6

2021-12-15

Frida hook.js 通用加密解密脚本

Frida hook.js 通用加密解密脚本

2021-12-15

16g101-1.2.3全集图集高清版.zip

16g101-1.2.3全集图集高清版

2021-11-19

CAD常见字体 文件HZTXTC.SHX

CAD常见字体 文件HZTXTC.SHX

2021-11-19

peid 文件大小插件

peid 文件大小插件 peid 文件大小插件

2010-12-03

全自动FTP弱口令扫描破解版.rar

全自动FTP弱口令扫描破解版.rar 找a-new破解的 有个暗门,要不早就可以发出来了 先运行a-new.reg 然后打开cn.bing.com www.baidu.com网页 最小化 然后运行破解版即可 服务器上可以10开,自己电脑可以2 3开 效果灰常不错 批量智能扫FTP弱口令,连接后传马到目录即可

2010-05-26

源代码 博客 高亮 工具

源代码博客高亮工具 源代码博客高亮工具 源代码博客高亮工具 源代码博客高亮工具 源代码博客高亮工具

2010-04-24

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除