fdupes - 查找重复资源文件

Fdupes 是一个 Linux 工具 Adrian Lopez (阿德里安-洛佩斯) 在 MIT 许可发行的 C 编程语言编写的。 应用程序能够找到给定的目录和子目录集中的重复文件。 Fdupes 通过比较文件的 MD5 签名,然后进行字节到字节的比较来识别重复。 Fdupes 可以传递许多选项来列出,删除和替换硬链接到重复的文件。

安装

$ brew install fdupes

使用

# 递归查询 -r 当前目录 并显示文件大小 -S
$ fdupes -r -S .

# 显示概要小结
$ fdupes -r -S -m .
569 duplicate files (in 371 sets), occupying 2.6 megabytes.
569个重复的文件(分371套),占用2.6兆字节。

# 删除重复文件,如果要退出删除模式,输入 exit 即可。
$ fdupes -r -S -d .

参考链接


作者:Plucky
出处:https://www.1991.wiki/topics/5
版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可,如您转载必须以链接形式注明原文地址。

FDUPES 是一个文件去重工具,可在指定的文件夹中标识出重复的文件。 使用方法: Usage: fdupes [options] DIRECTORY...  ---recurse       for every directory given follow subdirectories                     encountered within  ---recurse:      for each directory given after this option follow                     subdirectories encountered within  ---symlinks      follow symlinks  ---hardlinks     normally, when two or more files point to the same                     disk area they are treated as non-duplicates; this                     option will change this behavior  ---noempty       exclude zero-length files from consideration  ---omitfirst     omit the first file in each set of matches  ---sameline      list each set of matches on a single line  ---size          show size of duplicate files  ---quiet         hide progress indicator  ---delete        prompt user for files to preserve and delete all                     others; important: under particular circumstances,                     data may be lost when using this option together                     with -s or --symlinks, or when specifying a                     particular directory more than once; refer to the                     fdupes documentation for additional information  ---version       display fdupes version  ---help          display this help message 标签:FDUPES
<think>嗯,用户想了解电脑删除重复文件的方法。首先,我需要考虑不同的操作系统,比如Windows、macOS和Linux,因为每个系统的处理方式可能不同。用户可能不太熟悉命令行工具,所以应该推荐一些图形界面的软件,比如CCleaner或者Duplicate Cleaner,这些工具比较直观,适合普通用户。 接下来,手动检查的方法也很重要。虽然自动工具方便,但手动确认可以避免误删重要文件。需要提醒用户在删除前备份数据,这是一个关键的安全步骤,防止意外发生。 另外,用户可能不知道如何通过文件资源管理器进行搜索,比如在Windows中使用修改日期和大小来筛选重复文件。这部分需要详细说明步骤,让用户能够一步步操作。 还要注意重复文件的类型,比如文档、图片、视频等,不同的文件可能需要不同的处理方式。比如,图片可能有相同内容但不同格式,这时候需要特别提醒用户仔细检查。 最后,用户可能有不同的需求,比如释放磁盘空间或者整理文件,所以需要根据不同的使用场景推荐合适的工具或方法。同时,强调数据安全的重要性,确保用户不会因为误操作而丢失文件。</think>删除电脑中的重复文件是一项系统整理工作,可有效释放存储空间。以下是分步骤的操作指南: 一、基础原理 重复文件通常分为两类: 1. 完全相同的二进制文件(如多次下载的同一文档) 2. 内容相同但元数据不同的文件(如相同照片的不同文件名) 二、Windows系统方案 1. 自带工具组合: - 文件资源管理器搜索:使用`修改日期:2023`+`大小:>50MB`组合条件 - PowerShell命令(管理员模式): ```powershell Get-ChildItem -Recurse | Group-Object Length,@{n='Hash';e={Get-FileHash $_.FullName | Select-Object -ExpandProperty Hash}} | Where-Object {$_.Count -gt 1} ``` 2. 第三方工具推荐: • CCleaner(内置重复查找器) • Duplicate Cleaner Pro(支持多媒体文件比对) 三、macOS系统方案 1. 原生功能: - 访达智能文件夹:设置组合搜索条件`种类:图像`+`创建日期:最近30天` - 终端命令: ```bash fdupes -r -S /目标目录 ``` 2. 专用工具: • Gemini 2 • Duplicate File Finder 四、Linux系统方案 1. 命令行工具: ```bash fdupes -r /目录路径 | tee duplicates.log ``` 常用参数组合: - `-d`:交互式删除 - `-n`:仅显示重复项 2. 图形界面工具: • FSlint • Czkawka 五、安全操作守则 1. 删除前必须: ✓ 创建系统还原点 ✓ 备份重要数据到外部存储 ✓ 验证文件哈希值(使用`certutil -hashfile 文件名 SHA256`) 2. 特殊文件处理: - 系统文件(位于`C:\Windows\`和`/usr/`目录)禁止删除 - 隐藏文件(前缀`.`的文件)需谨慎处理 六、进阶技巧 1. 使用正则表达式命名匹配: ```regex ^IMG_\d{8}(-Copy(\(\d+\))?)?\.(jpg|png)$ ``` 2. 多媒体文件特征比对: - 图片:EXIF数据对比 - 音频:声纹分析(需专业工具) 建议操作频率:每月执行一次系统级扫描,配合云存储同步可减少本地冗余。对于专业用户,建议编写自动化脚本处理(需具备编程基础)。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值