python
文章平均质量分 96
AKULAKK
js/node
展开
-
记录下一次md2亿次跑分测试的数据分别用nodejs/python/php跑和对比
一亿次md2计算nodejs耗时 1000秒php耗时 920秒python耗时3600秒(一定是我写法没对)var md2 = require('js-md2')Date.prototype.Format = function (fmt) { // author: meizz var o = { "M+": this.getMonth() + 1, // 月份 "d+": this.getDate(), // 日 "h+".原创 2020-10-27 16:54:09 · 331 阅读 · 0 评论 -
pyppeteer一次性上传多个图片文件
files = [r"C:/" + x.strip('"') for x in '"app.png" "22.jpg" "9684f730f40745af894ce71588f8f3db.gif"'.split(' ')] await input[0].uploadFile(*files)核心语法就是uploadFile接受一个可变参数, 对应多个文件名即可...原创 2019-12-29 17:37:49 · 5390 阅读 · 1 评论 -
一键批量转换|压缩转码|整个文件夹的视频到新文件夹|保留文件夹结构--基于python+ffmpeg实现
需求分析:收到一个需求, 移动硬盘里面的视频素材需要剪辑, 但是格式是sony A9录制的4K视频, 对剪辑硬件要求很高, 所以要压缩码率以便实现流畅剪辑的体验. 虽然有proxy这种方式但是常用的人都知道有各种小毛病. 那么这里的需求是preview剪辑完之后再把源视频文件及直接覆盖回去( premiere直接一键relocate )就可以渲染高清视频了.同时也能节约硬盘空间.那么, 一...原创 2019-09-25 12:07:47 · 6720 阅读 · 1 评论 -
关于Scrapy中Middleware和Pipeline的一些感悟--国庆期间研究小结
首先不管你使用requests还是urllib抑或是爬虫框架(此文指Scrapy)本质上都是获取数据.查了不少文档, 10年来各种写法都有. 不得不感慨下搜索引擎保留的资料时间之长久.而要获取最新的文档, 默认还是谷歌最好.那么为什么使用Scrapy, 答: 为了效率.可能运行效率比不上跑分级原生手写request代码, 但是作为爬虫工程来说, 绝对框架爬虫是首选. 这里面包含日后的维...原创 2019-10-07 15:57:10 · 301 阅读 · 0 评论