python列表去重_python 字典列表/列表套字典 去重重复的字典数据

本文探讨了三种不同的Python字典列表去重方法,包括使用reduce、set和直接遍历。第三种方法通过将字典转换为元组并利用set的特性,实现了高效去重。这种方法在处理大量数据时速度远超其他两种,适用于大数据场景。
摘要由CSDN通过智能技术生成

python 字典列表/列表套字典 数据去重

第一种:def deleteDuplicate(li):

func = lambda x, y: x if y in x else x + [y]

li = reduce(func, [[], ] + li)

return li

第二种:def deleteDuplicate(li):

temp_list = list(set([str(i) for i in li]))

li=[eval(i) for i in temp_list]

return li

第三种方法:[dict(t) for t in set([tuple(d.items()) for d in li])]

# 解释

li 是原始列表

d  是列表中的一个字典

t  是从字典中创建的元组之一

l = [{'a': 123, 'b': 1234},

{'a': 3222, 'b': 1234},

{'a': 123, 'b': 1234}]

seen = set()

new_l = []

for d in l:

t = tuple(d.items())

if t not in seen:

seen.add(t)

new_l.append(d)

print new_l

建议使用第三种,因为速度更加快,经过测试相同的数据,第三种方法速度比第一种的10倍

样例演示:li = [

{'a': 'b', 'c': 'c'},

{'a': 'b', 'b': 'b'},

{'a': 'b', 'd': 'd'},

{'a': 'b', 'e': 'e'},

{'a': 'b', 'f': 'f'},

{'a': 'b', 'b': 'b'},

{'a': 'b', 'c': 'c'},

]

li = deleteDuplicate(li)

print (li)

[{'a': 'b', 'c': 'c'}, {'a': 'b', 'b': 'b'}, {'a': 'b', 'd': 'd'}, {'a': 'b', 'e': 'e'}, {'a': 'b', 'f': 'f'}]

测试性能相关代码:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值