前言
不知道是不是百度云PC端的bug,最近使用百度云PC端下载文件时,发现下载的文件中,几乎每个文件都重复了一个,看着文件也挺多的,挨个删除是不可能的(也想偷懒一下啊哈哈哈),所以就想用Node.js进行处理了。
注:以下文件截图都是例子,真实的文件比这还要多得多。
Github
【Duplicate_Files_Handler】: https://github.com/facccccer/Duplicate_Files_Handler.git.
项目文件都上传到Github了,觉得有帮助的可以看看。
思路
- Node.js 知识
- fs.existsSync():如果路径存在,则返回 true,否则返回 false。
- fs.stat():获取文件信息
- stats.isFile():判断是否为文件类型
- fs.unlink():删除文件
- fs.appendFile():异步地将数据追加到文件,如果文件尚不存在则创建该文件。 data 可以是字符串或 Buffer。
- fs.readdir():读取文件目录
- 递归算法:
由于文件都在不同的文件夹中,文件夹中又有文件夹…所以这里采用了递归算法。
处理前
处理后
LOG
另外,还可以通过打开log.txt文件查看删除记录。
代码
var fs = require('fs');
var path = require('path')