Python每日一记4>>>数据去重set/drop_duplicates

数据去重:
1、利用set()集合的特性进行去重,去重后顺序不固定,这是最大的问题。
2、pandas drop_duplicates方法进行去重,其中的参数subset表示需要去重的列,如果是多列,则需要用列表表示,keep参数可以选择保留第一个或者最后一个或者都不保留,inplace参数表示是否在原表进行操作。
优先使用drop_duplicates方法
另外一个问题是如何找出重复的值呢?我们可以使用duplicated
pandas.DataFrame.duplicated(self, subset=None, keep=‘first’)
重复标记为true,否则标记为false
其中参数意义:
subset:用于识别重复的列标签或列标签序列,默认所有列标签
keep=‘frist’:除了第一次出现外,其余相同的被标记为重复
keep=‘last’:除了最后一次出现外,其余相同的被标记为重复
keep=False:所有相同的都被标记为重复
最后依据标记再去筛选为FALSE的行,就能找出所有的重复记录啦。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值