python处理几十g的数据_Python数据处理(持续更新)

本文介绍了Python在处理大数据时的一些关键操作,包括读取文本文件、数据合并、数据聚合、CSV数据合并、去重、缺失值处理、字符串转数值型以及数据标准化。此外,还探讨了如何通过LabelEncoder进行编码转换,并展示了如何对数据进行随机抽样。内容覆盖了从数据预处理到清洗的多个方面。
摘要由CSDN通过智能技术生成

#打开txt文件

#打开txt文件

with open('day02.txt') as f:for line inf.readlines():

aline=line.strip()

bline=aline.split(",")print (bline)

数据合并

pd.merge(data,df,on=['appid'])

数据聚合

t_data=list1.groupby(['uid','appid',...]) 按照某列

csv数据合并:

defhebing():

csv_list= glob.glob('*.csv')print(u'共发现%s个CSV文件'%len(csv_list))print(u'正在处理............')for i incsv_list:

fr= open(i,'r').read()

with open('t_data.csv','a') as f:

f.write(fr)print(u'合并完毕!')defquchong(file):

df= pd.read_csv(file,header=0)

datalist=df.drop_duplicates()

datalist.to_csv(file)if __name__ == '__main__':

hebing()

quchong("t_data.csv")

读取片段:

df = pd.read_csv("annotations.csv")[0:10]

按照列名读取

data = pd.read_csv('rfm.csv',usecols=['appid','duration','avg_flow'])

要把第三列数据中的0值删除,今天弄了好几个小时,写了个循环,还是不行,最后发现,只要选择数据中大于0的就可以了

data = pd.read_csv('rfm.csv',usecols=['appid','duration','avg_flow']) #读取数据中的3列数据

data=data[data.avg_flow>0]#选择大于0的数据

另一种思路,是把该列中数据为0的值挑出来,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值