和dataframe去重不同,当需要的是那些重复数据而不是非重复数据是,就想要将重复数据提取出来时,或者去除那些非重复数据。
主要思路:
1. 采用drop_duplicates对数据去两次重,一次将重复数据全部去除(keep=False),另一次将重复数据保留一个(keep='first);
2. 上一步我们得到了两类去重数据,分别是含有原本重复的数据(a)和不含有原本重复的数据(b),b是a的真子集,然后就可以用作差集的思想(http://blog.csdn.net/jasonwang_/article/details/78797458),即a-b,得到我们需要的原本重复的数据。
示例代码如下:
>>>import pandas as pd
>>>data={'state':[1,1,2,2,1,2,2],'pop':['a','b','c','d','b','c','d']}
>>>frame=pd.DataFrame(data)
>>>frame
pop state
0 a 1
1 b 1
2 c 2
3 d 2
4 b 1
5 c 2
6 d 2
>>>a = frame.drop_duplicates(subset=['pop'],keep='first')
>>>a
pop state
0 a 1
1 b 1
2 c 2
3 d 2
>>>b = frame.drop_duplicates(subset=['pop'],keep=False)
>>>b
pop state
0 a 1
>>>a.append(b).drop_duplicates(subset=['pop'],keep=False)
pop state
1 b 1
2 c 2
3 d 2
最后得到的三行数据就是重复的数据。