![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Python
文章平均质量分 56
Zeno_Lee
这个作者很懒,什么都没留下…
展开
-
某东滑块算法分析还原
某东滑块算法分析还原原创 2022-06-10 18:47:18 · 435 阅读 · 3 评论 -
[python] Django宝塔线上部署踩坑记录
原本的Django本地运行的时候是正常的, 当部署线上的时候就一大堆问题出现了.因为我对Linux并不熟悉, 所以就选择了宝塔的python项目管理器来部署在部署上线之前, 要添加几个文件.常规的要在项目根目录加上uwsgi.ini文件, 文件内容如下[uwsgi]master = trueprocesses = 1threads = 2chdir = /www/wwwroot/apiwsgi-file = /www/wwwroot/api/zeno_api/wsgi.py # wsg原创 2021-12-20 18:17:49 · 1078 阅读 · 0 评论 -
AST对抗某网站的Js抽取型混淆
因为网站比较敏感, 所以具体网站就不说了, 直接说逻辑部分为了降低数据提取的错误率, 所以使用了python的slimit库对js代码进行提取处理对网站源码的JavaScript进行分析后, 发现在其中一个script标签内的js代码是利用抽取混淆的, 并用flashvars开头的变量存储首先用python将该js代码进行提取response = requests.get(url=url, proxies=proxies)script = filter(lambda x: 'flashvars'原创 2021-07-02 08:37:37 · 331 阅读 · 2 评论 -
python爬取百度搜索链接
百度搜索链接爬取今日分享的是一个利用python的BaidySpider库实现的百度搜索爬取关键词自己在query那边修改就好了, 目前提取了的就只有百度的链接, 如果需要其他信息, 可以自己打断点对其他数据也清洗入库即可class MyThread(threading.Thread): def __init__(self, page): super().__init__() self.page = page def run(self) -> N原创 2021-05-06 08:24:39 · 958 阅读 · 0 评论 -
scrape center第六题JS逆向分析
Scrape Center第六题JS逆向分析地址: https://spa6.scrape.center/电影数据网站,数据通过 Ajax 加载,数据接口参数加密且有时间限制,源码经过混淆,适合 JavaScript 逆向分析。通过抓包工具可以看到token参数是加密的全局搜索可以发现这里有一个offset的参数分析加密过程值得一提的是这里是使用了一个native的方法来加密btoa => base64加密atob => 解密base64加密过程:先把"api/m原创 2021-03-23 16:16:33 · 412 阅读 · 0 评论 -
[python]微信公众号JS逆向
前言对于爬虫来说除了抓取数据以外, 还有的就是面对各种网站的反爬机制, 有图片验证码, 滑块, 问题类等等的反爬机制, 而js逆向也是最常见的一种, 而微信公众号登录的请求也是对密码进行了一个js加密的, 对于明文的方式请求是绝对失败的. 所以就要模拟一下他的js加密然后把加密后的数据当作参数进行请求接口.网站代码分析通过浏览器抓包找到登录的接口, 查看传递的参数其中pwd是进行加密了的数据, 对于一些熟悉加密的朋友来说, 大概就知道了这个是md5的一个加密方法.对参数pwd进行全局搜索找到相关原创 2021-02-06 16:28:45 · 1265 阅读 · 4 评论 -
[Python]抖音短无水印视频下载案例分析
昨天找了一天的抖音无水印视频下载的案例, 大部分都是一些比较旧的案例, 然后根据他们的分析, 昨天就写了一个抖音短视频无水印下载的爬虫.以下所有请求, 必须加上手机端的user-agent分析过程以下以"https://v.douyin.com/JG1J8Rn/"这个抖音分享链接作为栗子????用Chrome浏览器来请求进行抓包分析可以看出来抖音分享的链接是一个短链接的形式, 然后进行302重定向去location的地址通过上面重定向的链接请求的参数, 对疑似视频id的参数进行搜原创 2021-01-09 12:06:07 · 716 阅读 · 0 评论 -
[Python] 函数增强之柯里化-装饰器(详细)
在实际应用中, 我们如果要把业务函数增强, 但是我们并不想在业务函数中加入非业务的侵入式代码, 我们应该把业务功能函数和增强功能函数分开. 所以就出现了以下函数写法.def add(x, y): return x + ydef logger(fn): print('begin') # 增强的输出 x = fn(4, 5) print('end') # 增强的功能 return xprint(logger(add))但是这个写法会破坏了函数的封装,原创 2020-12-06 11:18:08 · 523 阅读 · 7 评论 -
【Python】爬虫(Xpath):批量爬取织梦免费模版
织梦站内有很多的一些免费模版给非会员用户下载, 此次爬取免费模版并非实际意义的下载, 因为站内并没有直接下载,都是使用百度网盘分享链接的方式下载的,所以本次爬取到的是各个模板相对应的分享链接和提取码import requestsimport osfrom lxml import etreedef demo(page_need, headers): desktop = os.path.join(os.path.expanduser("~"), 'Desktop') fp = ope原创 2020-08-26 14:32:10 · 345 阅读 · 0 评论 -
【Python】爬虫(Xpath):批量爬取站长免费简历
话不多说吧 直接上from lxml import etreeimport requestsimport os# 封装解析下载函数def cv_down(tree, headers): cv_href = tree.xpath('//div[@class="sc_warp mt20"]/div/div/div/a/@href') for href in cv_href: act_response = requests.get(url=href, header原创 2020-08-16 18:11:19 · 466 阅读 · 0 评论 -
【Python】爬虫(Xpath):批量爬取彼岸图网4K图(非真正4K)
因为真正的4K图需要登录,并且登录后一天也就只能下载一张,所以就只解析爬取了内容页的高清图片(1200*633左右)代码实现了我目前所能想到的用户骚操作的判定,例如选择的类目不在这个网站内, 或者这个类目没有那么多页之类的 废话不多说直接上代码吧import requestsfrom lxml import etreeimport os# 封装从栏目页进入内容页连接解析函数def name(url, type_name, headers): url = url + page_lis原创 2020-08-16 17:56:20 · 1078 阅读 · 1 评论 -
【Python】爬虫初次实战-Zeno
一直都说想学爬虫,前两天就开始认真在B站看了一下爬虫,其实之前也看过一点,但是之前看的那个是用urllib的 用起来就比较麻烦.然后这次在B站找到的一个还不错,直接奉上链接吧:https://www.bilibili.com/video/BV1Yh411o7Sz到目前为止看到了bs4的实战(其实还没有开始看这一集), 因为看了前面的requests 正则 bs4的简单的基础内容之后,我觉得我可以完成这一集的实战内容,就利用中午休息的时间完成了这一集的内容(可能效率会代码慢了点)总的来说还算是成功的.走了原创 2020-08-16 17:54:03 · 153 阅读 · 0 评论