一千万条数据去重_Pandas数据去重和对重复数据分类、求和

本文介绍了如何使用Pandas处理一千万条数据的去重问题,详细讲解了如何填充空值、利用duplicated()和drop_duplicates()函数对数据去重,并按特定列对重复数据进行分类和求和。此外,还展示了如何合并不重复数据和处理后的重复数据。
摘要由CSDN通过智能技术生成

人的理想志向往往和他的能力成正比。—— 约翰逊

其实整个需求呢,就是题目。2018-08-16

需求的结构图:

涉及的包有:pandas、numpy

1、导入包:

importpandas as pdimport numpy as np

View Code

2、构造DataFrame,里面包含三种数据类型:int、null、str

data = {"number":[1,1,np.nan,np.nan,2,2,1,2,2],"letter":['a','b',np.nan,np.nan,'c','d','b','c','d'],"label":[1,1,9,9,2,2,1,2,2]}

dataset1= pd.DataFrame(data) #初始化DataFrame 得到数据集dataset1

print(dataset1)

View Code

3、空值填充

由于数据集里含有空值

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值