kaggle泰坦尼克数据之数据重构

复习:在前面我们已经学习了Pandas基础,第二章我们开始进入数据分析的业务部分,在第二章第一节的内容中,我们学习了数据的清洗,这一部分十分重要,只有数据变得相对干净,我们之后对数据的分析才可以更有力。而这一节,我们要做的是数据重构,数据重构依旧属于数据理解(准备)的范围。

开始之前,导入numpy、pandas包和数据
# 导入基本库
import numpy as py
import pandas as pd 
# 载入data文件中的:train-left-up.csv
df_ld = pd.read_csv("./data/train-left-down.csv")
df_ld.head()

在这里插入图片描述

2 第二章:数据重构

2.4 数据的合并

2.4.1 任务一:将data文件夹里面的所有数据都载入,观察数据的之间的关系
df_lu = pd.read_csv("./data/train-left-up.csv")
df_lu.head()

在这里插入图片描述

df_rd = pd.read_csv("./data/train-right-down.csv")
df_rd.head()

在这里插入图片描述

df_ru = pd.read_csv("./data/train-right-up.csv")
df_ru.head()

在这里插入图片描述

2.4.2:任务二:使用concat方法:将数据train-left-up.csv和train-right-up.csv横向合并为一张表,并保存这张表为result_up
result_up = pd.concat([df_lu,df_ru], axis=1)
result_up.head()

在这里插入图片描述

2.4.3 任务三:使用concat方法:将train-left-down和train-right-down横向合并为一张表,并保存这张表为result_down。然后将上边的result_up和result_down纵向合并为result。
result_down = pd.concat([df_ld,df_rd], axis=1)
result_down.head()

在这里插入图片描述

result = pd.concat([result_up,result_down], axis=1)
result.head()

在这里插入图片描述

2.4.4 任务四:使用DataFrame自带的方法join方法和append:完成任务二和任务三的任务
result_up =df_lu.join(df_ru)
result_up.head()

在这里插入图片描述

result_down =df_ld.join(df_rd)
result_down.head()

在这里插入图片描述

result = result_up.append(result_down)
result.head()

在这里插入图片描述

2.4.5 任务五:使用Panads的merge方法和DataFrame的append方法:完成任务二和任务三的任务
result_up = pd.merge(df_lu, df_ru, left_index=True, right_index=True)
result_up.head()

在这里插入图片描述

result_down = pd.merge(df_ld, df_rd, left_index=True, right_index=True)
result_down.head()

在这里插入图片描述

result = result_up.append(result_down)
result.head()

在这里插入图片描述

2.4.6 任务六:完成的数据保存为result.csv
result.to_csv('result.csv')

2.5 换一种角度看数据

2.5.1 任务一:将我们的数据变为Series类型的数据
df = pd.read_csv('result.csv')
df.head()

在这里插入图片描述

unit_result=df.stack()
unit_result.head()

在这里插入图片描述

2.6 数据运用

2.6.1 任务一:通过教材《Python for Data Analysis》P303、Google or anything来学习了解GroupBy机制

groupby的过程就是将原有的DataFrame按照groupby的字段,划分为若干个分组DataFrame,被分为多少个组就有多少个分组DataFrame。

2.4.2:任务二:计算泰坦尼克号男性与女性的平均票价
df.groupby('Sex')['Fare'].mean()

在这里插入图片描述
在了解GroupBy机制之后,运用这个机制完成一系列的操作,来达到我们的目的。

下面通过几个任务来熟悉GroupBy机制。

2.4.3:任务三:统计泰坦尼克号中男女的存活人数
df.groupby('Sex')['Survived'].count()

在这里插入图片描述

2.4.4:任务四:计算客舱不同等级的存活人数
df.groupby('Pclass')['Survived'].count()

在这里插入图片描述
思考】从数据分析的角度,上面的统计结果可以得出那些结论
在存活的人里,男性占比较大,且票价等级为3的存活概率也较大。

【思考】从任务二到任务三中,这些运算可以通过agg()函数来同时计算。并且可以使用rename函数修改列名。你可以按照提示写出这个过程吗?

df.groupby('Survived').agg({'Sex':'count','Pclass': 'count'}).rename(columns={'Sex':'count_sex','Pclass': 'count_pclass'})

在这里插入图片描述

2.4.5:任务五:统计在不同等级的票中的不同年龄的船票花费的平均值
df.groupby(['Pclass','Age'])['Fare'].mean()

在这里插入图片描述

2.4.6:任务六:将任务二和任务三的数据合并,并保存到sex_fare_survived.csv
pd.concat([df.groupby('Sex')['Fare'].mean(),df.groupby('Sex')['Survived'].count()], axis=1).to_csv("sex_fare_survived.csv")
2.4.7:任务七:得出不同年龄的总的存活人数,然后找出存活人数的最高的年龄,最后计算存活人数年龄最高的存活率(存活人数/总人数)
survived_age = df['Survived'].groupby(df['Age']).sum()
max_survived_age = survived_age[survived_age.values == survived_age.max()]
sum = df['Survived'].sum()
per = max_survived_age.values[0]/sum
print("per=",per)

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值