Python-计算md5值对图片去重

MD5简介

MD5 即 Message-Digest Algorithm 5(信息-摘要算法5)。摘要算法又称哈希算法、散列算法。它通过一个函数,把任意长度的数据转换为一个长度固定的数据串(通常用16进制的字符串表示)。MD5 是从MD2、MD3 和 MD4 发展而来的一种加密算法,其主要通过采集文件的信息摘要,以此进行计算并加密。通过MD5算法进行加密,文件就可以获得一个唯一的 MD5 值,这个值是独一无二的,就像我们的指纹一样。如果任何人对文件做了任何改动,其 MD5 值也就是对应的“数字指纹”都会发生变化。

图片去重实例

我们可以计算图片的 md5 值。若几张图片完全相同,则其 md5 值也完全相同,此时可以根据 md5 值是否相同来对图片进行去重处理。

以电脑F盘找中 images 文件夹为例,对其各个子文件夹内的图片进行去重在这里插入图片描述

Python程序

Python 的 hashlib 提供了常见的摘要算法,如MD5,SHA1等。

import os
from hashlib import md5

def main():
    path = 'F:/images'
    f = open('F:/images/md5.txt', 'w')

    list = []

    list1 = []

#得到所有图片的路径,加到列表list1中
    root, dirs, files = next(os.walk(path))
    for i in range(len(dirs)):
        file = os.listdir(path + '/' + dirs[i])
        for j in range(len(file)):
            line = path + '/' +dirs[i] + '/' + str(file[j])
            list1.append(line)

#计算每张图片的md5值,并将图片路径与其md5值整合到列表list中
    for n in range(len(list1)):
        hash = md5()
        img = open(list1[n], 'rb')
        hash.update(img.read())
        img.close()
        list2 = [list1[n], hash.hexdigest()]
        f.write(str(list2)+'\n')
        list.append(list2)

#两两比较md5值,若相同,则删去一张图片
    m = 0
    while m < len(list):
        t = m + 1
        while t < len(list):
            if list[m][1] == list[t][1]:
                os.remove(list[t][0])
                del list[t]
            else:
                t += 1
        m += 1

if __name__ == '__main__':
    main()
去重结果

计算的每张图片 md5 值

重复图片已去除
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
直接对某一文件夹内的图片进行去重

#得到所有图片的路径,加到列表list1中
    root, dirs, files = next(os.walk(path))
    for i in range(len(dirs)):
        file = os.listdir(path + '/' + dirs[i])
        for j in range(len(file)):
            line = path + '/' +dirs[i] + '/' + str(file[j])
            list1.append(line)

将上述代码改为以下代码即可

root, _, files = next(os.walk(path))
    for i in range(len(files)):
        line = path + '/' + str(files[i])
        list1.append(line)
实例展示

对一个文件夹 images11 中的图片去重
在这里插入图片描述
在这里插入图片描述

  • 8
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
### 回答1: 图片去重是一个比较常见的任务,可以使用哈希算法实现。具体步骤如下: 1. 将所有图片的像素转换成一个固定长度的字符串表示。可以使用感知哈希算法(Perceptual Hash,简称pHash),它可以将不同分辨率、不同大小、不同格式的图片转换为固定长度的字符串表示。 2. 将所有字符串进行比较,如果两个字符串相似度高于某个阈,则认为这两个图片是相似的,只保留其中一个图片即可。 下面是使用Python实现基于pHash算法的图片去重的代码示例: ```python import os import imagehash from PIL import Image # 计算图片的pHash def get_image_phash(image_path): with Image.open(image_path) as im: phash = imagehash.phash(im) return phash # 判断两个图片是否相似 def is_image_similar(image_path1, image_path2, threshold=5): phash1 = get_image_phash(image_path1) phash2 = get_image_phash(image_path2) hamming_distance = phash1 - phash2 return hamming_distance <= threshold # 基于pHash算法的图片去重 def deduplicate_images(image_dir, threshold=5): image_paths = [os.path.join(image_dir, filename) for filename in os.listdir(image_dir)] for i, path1 in enumerate(image_paths): for j, path2 in enumerate(image_paths[i+1:], i+1): if is_image_similar(path1, path2, threshold): print(f"Remove {path2}") os.remove(path2) # 测试 if __name__ == '__main__': image_dir = "/path/to/image/dir" deduplicate_images(image_dir, threshold=5) ``` 代码中使用了`imagehash`库来计算图片的pHash,`PIL`库来打开图片文件。函数`is_image_similar`用于判断两个图片是否相似,函数`deduplicate_images`则遍历指定目录下的所有图片,如果有相似的图片则删除其中一个。 ### 回答2: Python图片去重是指通过某种算法或方法,从给定的图片集合中找出相似或重复的图片,并进行去除操作,以减少存储空间或提高查找效率。 实现图片去重可以分为以下步骤: 1. 加载图片:使用Python的图像处理库(如Pillow)或使用第三方库(如OpenCV)加载图片,将其转换为计算机能够处理的数据格式。 2. 特征提取:对图片进行特征提取,以便后续对比和识别。常用的特征提取方法有哈希算法(如MD5、SHA1)、感知哈希算法(Perceptual Hashing)、局部二模式(Local Binary Patterns)等。 3. 相似度计算:根据提取的特征,计算图片之间的相似度。可以使用相似度度量算法(如余弦相似度、汉明距离、欧式距离)来衡量图片之间的相似程度。 4. 去重操作:根据设定的相似度阈,将相似度高于阈图片进行去重操作。可以选择保留第一张出现的图片,或根据自定义策略选择其他图片进行保留或删除。 5. 保存结果:将去重后的图片保存到指定的路径或数据库中,以备后续使用。 需要注意的是,图片去重是一个计算密集型的任务,处理大量图片可能需要较长的时间和较高的计算资源。 除了以上方法,还可以借助深度学习技术中的卷积神经网络(Convolutional Neural Network, CNN)进行图片相似度计算去重。通过对训练好的CNN模型进行特征提取和比对,可以得到更精确的相似度结果,进而进行去重操作。 总之,Python提供了各种图像处理库和算法,可以灵活地实现图片去重功能。根据实际需求和资源限制,选择合适的方法和工具,可以高效地完成图片去重任务。 ### 回答3: 要实现Python图片去重,可以按照以下步骤进行: 1. 导入所需的Python库。首先,我们需要导入PIL库(Python Imaging Library)来处理图片。可以使用以下代码导入PIL库: ```python from PIL import Image ``` 2. 获取图片的哈希。哈希是一个对文件进行唯一标识的字符串。我们可以使用PIL库的`Image`模块来打开图片,并使用`hash`方法获取哈希。例如,我们可以使用以下代码获取一张图片的哈希: ```python image = Image.open('image.jpg') image_hash = image.hash() ``` 3. 对比图片的哈希。现在,我们可以将所有的图片哈希存储在一个列表中,并使用循环来对比它们。如果两个哈希相同,那么两个图片就是相同的。我们可以使用以下代码进行对比: ```python duplicated_images = [] for image_path in image_paths: image = Image.open(image_path) image_hash = image.hash() if image_hash in duplicated_images: # 说明图片重复了 print(f'{image_path} 是重复的图片') else: duplicated_images.append(image_hash) ``` 4. 删除重复的图片。最后一步是删除重复的图片。对于每一对重复的图片,我们可以使用`os`模块的`remove`函数来删除其中一个图片。例如: ```python import os os.remove('duplicate_image.jpg') ``` 综上所述,以上是使用Python进行图片去重的基本步骤。当然,具体的实现方式还可以根据实际需要进行调整和扩展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值