datawhale课程[动手学数据分析]——Task03:数据重构

目录

复习:在前面我们已经学习了Pandas基础,第二章我们开始进入数据分析的业务部分,在第二章第一节的内容中,我们学习了数据的清洗,这一部分十分重要,只有数据变得相对干净,我们之后对数据的分析才可以更有力。而这一节,我们要做的是数据重构,数据重构依旧属于数据理解(准备)的范围。

from IPython.core.interactiveshell import InteractiveShell
InteractiveShell.ast_node_interactivity = 'all'
开始之前,导入numpy、pandas包和数据
# 导入基本库
import numpy as np
import pandas as pd
# 载入data文件中的:train-left-up.csv
text = pd.read_csv("data/train-left-up.csv")
text.head()
PassengerIdSurvivedPclassName
0103Braund, Mr. Owen Harris
1211Cumings, Mrs. John Bradley (Florence Briggs Th...
2313Heikkinen, Miss. Laina
3411Futrelle, Mrs. Jacques Heath (Lily May Peel)
4503Allen, Mr. William Henry

2 第二章:数据重构

2.4 数据的合并

2.4.1 任务一:将data文件夹里面的所有数据都载入,观察数据的之间的关系
#写入代码
df = pd.read_csv('train.csv')
df.head()
df.shape
PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
0103Braund, Mr. Owen Harrismale22.010A/5 211717.2500NaNS
1211Cumings, Mrs. John Bradley (Florence Briggs Th...female38.010PC 1759971.2833C85C
2313Heikkinen, Miss. Lainafemale26.000STON/O2. 31012827.9250NaNS
3411Futrelle, Mrs. Jacques Heath (Lily May Peel)female35.01011380353.1000C123S
4503Allen, Mr. William Henrymale35.0003734508.0500NaNS
(891, 12)
text_left_up = pd.read_csv("data/train-left-up.csv")
text_left_down = pd.read_csv("data/train-left-down.csv")
text_right_up = pd.read_csv("data/train-right-up.csv")
text_right_down = pd.read_csv("data/train-right-down.csv")
#写入代码
text_left_up.head()
text_left_up.shape
PassengerIdSurvivedPclassName
0103Braund, Mr. Owen Harris
1211Cumings, Mrs. John Bradley (Florence Briggs Th...
2313Heikkinen, Miss. Laina
3411Futrelle, Mrs. Jacques Heath (Lily May Peel)
4503Allen, Mr. William Henry
(439, 4)
text_left_down.head()
text_left_down.shape
PassengerIdSurvivedPclassName
044002Kvillner, Mr. Johan Henrik Johannesson
144112Hart, Mrs. Benjamin (Esther Ada Bloomfield)
244203Hampe, Mr. Leon
344303Petterson, Mr. Johan Emil
444412Reynaldo, Ms. Encarnacion
(452, 4)
text_right_up.head()
text_right_up.shape
SexAgeSibSpParchTicketFareCabinEmbarked
0male22.010A/5 211717.2500NaNS
1female38.010PC 1759971.2833C85C
2female26.000STON/O2. 31012827.9250NaNS
3female35.01011380353.1000C123S
4male35.0003734508.0500NaNS
(439, 8)
text_right_down.head()
text_right_down.shape
SexAgeSibSpParchTicketFareCabinEmbarked
0male31.000C.A. 1872310.500NaNS
1female45.011F.C.C. 1352926.250NaNS
2male20.0003457699.500NaNS
3male25.0103470767.775NaNS
4female28.00023043413.000NaNS
(452, 8)

【提示】结合之前我们加载的train.csv数据,大致预测一下上面的数据是什么

【回答】通过df.shape()函数,我们可以看出891行12列的dataframe被从第439行以下第4列以右切分成四个小的dataframe,文件的命名说明了它们在原dataframe的位置。

2.4.2:任务二:使用concat方法:将数据train-left-up.csv和train-right-up.csv横向合并为一张表,并保存这张表为result_up
#写入代码
list_up = [text_left_up,text_right_up] # 两个dataframe放到一张list里面
result_up = pd.concat(list_up,axis=1) # concat的对象要是list,把list里面的元素合并,axis=1表示在垂直方向进行连接
result_up.head()
type(result_up)
result_up.shape
PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
0103Braund, Mr. Owen Harrismale22.010A/5 211717.2500NaNS
1211Cumings, Mrs. John Bradley (Florence Briggs Th...female38.010PC 1759971.2833C85C
2313Heikkinen, Miss. Lainafemale26.000STON/O2. 31012827.9250NaNS
3411Futrelle, Mrs. Jacques Heath (Lily May Peel)female35.01011380353.1000C123S
4503Allen, Mr. William Henrymale35.0003734508.0500NaNS
pandas.core.frame.DataFrame






(439, 12)

【分析】可以看出将两个原来df上部dataframe横向合并成了一个新的dataframe

# 保存表为result_up
result_up.to_csv('result_up.csv') 
2.4.3 任务三:使用concat方法:将train-left-down和train-right-down横向合并为一张表,并保存这张表为result_down。然后将上边的result_up和result_down纵向合并为result。
#将train-left-down和train-right-down横向合并为一张表,并保存这张表为result_down
list_down=[text_left_down,text_right_down]
result_down = pd.concat(list_down,axis=1)
result_down.head()
result_down.to_csv('result_down.csv') 
PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
044002Kvillner, Mr. Johan Henrik Johannessonmale31.000C.A. 1872310.500NaNS
144112Hart, Mrs. Benjamin (Esther Ada Bloomfield)female45.011F.C.C. 1352926.250NaNS
244203Hampe, Mr. Leonmale20.0003457699.500NaNS
344303Petterson, Mr. Johan Emilmale25.0103470767.775NaNS
444412Reynaldo, Ms. Encarnacionfemale28.00023043413.000NaNS
# 将上边的result_up和result_down纵向合并为result
result = pd.concat([result_up,result_down]) #默认axis=0,即水平方向拼接
result.head()
type(result)
result.shape
PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
0103Braund, Mr. Owen Harrismale22.010A/5 211717.2500NaNS
1211Cumings, Mrs. John Bradley (Florence Briggs Th...female38.010PC 1759971.2833C85C
2313Heikkinen, Miss. Lainafemale26.000STON/O2. 31012827.9250NaNS
3411Futrelle, Mrs. Jacques Heath (Lily May Peel)female35.01011380353.1000C123S
4503Allen, Mr. William Henrymale35.0003734508.0500NaNS
pandas.core.frame.DataFrame






(891, 12)

【分析】可以看出,上部dataframe和下部dataframe纵向合并成功

2.4.4 任务四:使用DataFrame自带的方法join方法和append:完成任务二和任务三的任务
resul_up = text_left_up.join(text_right_up)
result_down = text_left_down.join(text_right_down)
result = result_up.append(result_down)
result.head()
type(result)
result.shape
PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
0103Braund, Mr. Owen Harrismale22.010A/5 211717.2500NaNS
1211Cumings, Mrs. John Bradley (Florence Briggs Th...female38.010PC 1759971.2833C85C
2313Heikkinen, Miss. Lainafemale26.000STON/O2. 31012827.9250NaNS
3411Futrelle, Mrs. Jacques Heath (Lily May Peel)female35.01011380353.1000C123S
4503Allen, Mr. William Henrymale35.0003734508.0500NaNS
pandas.core.frame.DataFrame






(891, 12)

【分析】join可以做横向操作,append可以做纵向操作,具体参数和用法见下面参考资料。

2.4.5 任务五:使用Panads的merge方法和DataFrame的append方法:完成任务二和任务三的任务
result_up = pd.merge(text_left_up,text_right_up,left_index=True,right_index=True) # 使用左侧与右侧dataframe的行索引作为连接键
result_down = pd.merge(text_left_down,text_right_down,left_index=True,right_index=True)
result = resul_up.append(result_down)
result.head()
type(result)
result.shape
PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
0103Braund, Mr. Owen Harrismale22.010A/5 211717.2500NaNS
1211Cumings, Mrs. John Bradley (Florence Briggs Th...female38.010PC 1759971.2833C85C
2313Heikkinen, Miss. Lainafemale26.000STON/O2. 31012827.9250NaNS
3411Futrelle, Mrs. Jacques Heath (Lily May Peel)female35.01011380353.1000C123S
4503Allen, Mr. William Henrymale35.0003734508.0500NaNS
pandas.core.frame.DataFrame






(891, 12)

【思考】对比merge、join以及concat的方法的不同以及相同。思考一下在任务四和任务五的情况下,为什么都要求使用DataFrame的append方法,如果只要求使用merge或者join可不可以完成任务四和任务五呢?

【回答】

  • merge、join以及cocat都能进行横向操作。
  • concat通过设置axis=1还可以进行纵向操作。merge和concat是pandas的方法,join是DataFrame的方法。
  • 任务四和任务五因为分别用merge和join只进行了横向操作,没进行纵向操作,而append可以进行纵向操作。如果只使用merge和join应该也能完成任务四和任务五,还在尝试。

【参考】DataFrame 数据合并,连接(merge,join,concat)
     python 把几个DataFrame合并成一个DataFrame——merge,append,join,concat

2.4.6 任务六:完成的数据保存为result.csv
result.to_csv('result.csv')

2.5 换一种角度看数据

2.5.1 任务一:将我们的数据变为Series类型的数据

这个stack函数是干什么的?

# 将完整的数据加载出来
text = pd.read_csv('result.csv')
text.head()
Unnamed: 0PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
00103Braund, Mr. Owen Harrismale22.010A/5 211717.2500NaNS
11211Cumings, Mrs. John Bradley (Florence Briggs Th...female38.010PC 1759971.2833C85C
22313Heikkinen, Miss. Lainafemale26.000STON/O2. 31012827.9250NaNS
33411Futrelle, Mrs. Jacques Heath (Lily May Peel)female35.01011380353.1000C123S
44503Allen, Mr. William Henrymale35.0003734508.0500NaNS
unit_result=text.stack().head(20)
unit_result
unit_result.shape
type(unit_result)
0  Unnamed: 0                                                     0
   PassengerId                                                    1
   Survived                                                       0
   Pclass                                                         3
   Name                                     Braund, Mr. Owen Harris
   Sex                                                         male
   Age                                                           22
   SibSp                                                          1
   Parch                                                          0
   Ticket                                                 A/5 21171
   Fare                                                        7.25
   Embarked                                                       S
1  Unnamed: 0                                                     1
   PassengerId                                                    2
   Survived                                                       1
   Pclass                                                         1
   Name           Cumings, Mrs. John Bradley (Florence Briggs Th...
   Sex                                                       female
   Age                                                           38
   SibSp                                                          1
dtype: object






(20,)






pandas.core.series.Series

【分析】可以看出,stack: 将数据从DataFrame变成层次化的Series,即将其列索引变成行索引。

【参考】https://www.lizenghai.com/archives/3403.html

#将代码保存为unit_result,csv
unit_result.to_csv('unit_result.csv')
E:\Anaconda3\lib\site-packages\ipykernel_launcher.py:2: FutureWarning: The signature of `Series.to_csv` was aligned to that of `DataFrame.to_csv`, and argument 'header' will change its default value from False to True: please pass an explicit value to suppress this warning.
test = pd.read_csv('unit_result.csv')
test.head()
type(test)
0Unnamed: 00.1
00PassengerId1
10Survived0
20Pclass3
30NameBraund, Mr. Owen Harris
40Sexmale
pandas.core.frame.DataFrame

复习:在前面我们已经学习了Pandas基础,第二章我们开始进入数据分析的业务部分,在第二章第一节的内容中,我们学习了数据的清洗,这一部分十分重要,只有数据变得相对干净,我们之后对数据的分析才可以更有力。而这一节,我们要做的是数据重构,数据重构依旧属于数据理解(准备)的范围。

from IPython.core.interactiveshell import InteractiveShell
InteractiveShell.ast_node_interactivity = 'all'
开始之前,导入numpy、pandas包和数据
# 导入基本库
import numpy as np
import pandas as pd
# 载入上一个任务人保存的文件中:result.csv,并查看这个文件
text = pd.read_csv('result.csv')
text.head()
Unnamed: 0PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked
00103Braund, Mr. Owen Harrismale22.010A/5 211717.2500NaNS
11211Cumings, Mrs. John Bradley (Florence Briggs Th...female38.010PC 1759971.2833C85C
22313Heikkinen, Miss. Lainafemale26.000STON/O2. 31012827.9250NaNS
33411Futrelle, Mrs. Jacques Heath (Lily May Peel)female35.01011380353.1000C123S
44503Allen, Mr. William Henrymale35.0003734508.0500NaNS

2 第二章:数据重构

第一部分:数据聚合与运算

2.6 数据运用

2.6.1 任务一:通过教材《Python for Data Analysis》P303、Google or anything来学习了解GroupBy机制
#写入心得
Groupby()函数可以灵活的组合多个属性,进行数据的分组以及分组后地组内运算。

【参考】
https://blog.csdn.net/weixin_42782150/article/details/90716533
    https://www.cnblogs.com/Yanjy-OnlyOne/p/11217802.html

2.6.2:任务二:计算泰坦尼克号男性与女性的平均票价
# 写入代码
df =text['Fare'].groupby(text['Sex'])
means =df.mean()
means
Sex
0    25.523893
1    44.479818
Name: Fare, dtype: float64
【分析】女性的平均票价更高,且比男性的高不少。我推测男的劳工比较多,买的便宜票,又或者说女的贵妇人比例更高

在了解GroupBy机制之后,运用这个机制完成一系列的操作,来达到我们的目的。

下面通过几个任务来熟悉GroupBy机制。

2.6.3:任务三:统计泰坦尼克号中男女的存活人数
# 写入代码
survived_sex=text['Survived'].groupby(text['Sex'])
sums=survived_sex.sum()
sums.head()
Sex
0    109
1    233
Name: Survived, dtype: int64






pandas.core.series.Series

【分析】从这个指标我们可以料想,逃生的时候真如电影《泰坦尼克号》一样,女士优先。但是这是个绝对值,保守起见,我们分析下两个性别相对存活率。

text['Sex'].value_counts(ascending=True)
sums/text['Sex'].value_counts(ascending=True)
female    314
male      577
Name: Sex, dtype: int64






Sex
female    0.742038
male      0.188908
dtype: float64

【分析】可以看出,逃生的时候确实是女性优先,而且女性生存率达到了约0.74,男性生存率只有约0.19。

2.6.4:任务四:计算客舱不同等级的存活人数
# 写入代码
suvived_pclass=text['Survived'].groupby(text['Pclass'])
suvived_pclass.sum()
Pclass
1    136
2     87
3    119
Name: Survived, dtype: int64

【分析】这个绝对值其实意义不是很大,最好求出各个仓位等级的存活率

text['Pclass'].value_counts(sort=False)
rate_suvived_pclass=suvived_pclass.sum()/text['Pclass'].value_counts(sort=False)
rate_suvived_pclass
1    216
2    184
3    491
Name: Pclass, dtype: int64






Pclass
1    0.629630
2    0.472826
3    0.242363
dtype: float64

【分析】经过如此处理,我们看出了各个仓位等级的存活率,可以看出一等舱存活率达到约0.63,二等舱存活率约0.47,三等舱存活率约0.24,说明仓位等级越高,存活率越高。

提示:】表中的存活那一栏,可以发现如果还活着记为1,死亡记为0

【分析】这样设置很好,如果死亡记为1,活着记为0,那么得出的将是死亡人数。

思考】从数据分析的角度,上面的统计结果可以得出那些结论

【思考心得】
统计结果已经在上面进行了分析。得出了以下几点结论:
1. 女人的平均票价更高,推测总体而言,女人的地位相对男性要高;
2. 女性的存活情况远高于男性,推测逃生时女性优先;
3. 仓位等级越高,越容易存活,推测逃生时高等仓位优先。

【思考】从任务二到任务四中,这些运算可以通过agg()函数来同时计算。并且可以使用rename函数修改列名。你可以按照提示写出这个过程吗?

text['Sex']=text['Sex'].map({'male':0,'female':1})
text.groupby('Survived').agg({'Sex': 'mean', 'Pclass': 'count'}).rename(columns=
                            {'Sex': 'mean_sex', 'Pclass': 'count_pclass'})
mean_sexcount_pclass
Survived
00.147541549
10.681287342

【注意】前面那个mean_sex怎么理解??是不是说在死亡的女性约占0.15比例,存活的女性约占0.68的比例?我觉得这个理解没问题。

2.6.5:任务五:统计在不同等级的票中的不同年龄的船票花费的平均值
# 写入代码
text.groupby(['Pclass','Age'])['Fare'].mean()
Pclass  Age  
1       0.92     151.5500
        2.00     151.5500
        4.00      81.8583
        11.00    120.0000
        14.00    120.0000
                   ...   
3       61.00      6.2375
        63.00      9.5875
        65.00      7.7500
        70.50      7.7500
        74.00      7.7750
Name: Fare, Length: 182, dtype: float64
2.6.6:任务六:将任务二和任务三的数据合并,并保存到sex_fare_survived.csv
# 写入代码
result = pd.merge(means,sums,on='Sex')
result
FareSurvived
Sex
025.523893109
144.479818233
2.6.7:任务七:得出不同年龄的总的存活人数,然后找出存活人数的最高的年龄,最后计算存活人数最高的年龄的存活率(存活人数/总人数)
#不同年龄的存活人数
survived_age = text['Survived'].groupby(text['Age']).sum()
survived_age
Age
0.42     1
0.67     1
0.75     2
0.83     2
0.92     1
        ..
70.00    0
70.50    0
71.00    0
74.00    0
80.00    1
Name: Survived, Length: 88, dtype: int64
#找出最大值的年龄段
survived_age[survived_age.values==survived_age.max()]
Age
24.0    15
Name: Survived, dtype: int64
_sum = text['Survived'].sum()
print(_sum)
342
print("sum of person:"+str(_sum))

precent =survived_age.max()/_sum

print("最大存活率:"+str(precent))
sum of person:342
最大存活率:0.043859649122807015
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Datawhale数据分析课程是一门专门教授数据分析课程。在这门课程中,生将习各种数据处理和分析的技巧,包括数据的载入、基本操作、可视化展示等。在第一章的习中,生主要习了如何载入数据以及如何查看数据的基本信息,例如平均值、标准差、最大最小值,还习了数据的相加和删减等基本操作,这些都为后面进行数据分析打下了基础。此外,数据可视化也是数据分析过程中非常重要的一部分。通过绘图展示数据,可以帮助人们更直观地理解数据,从而得出更准确的结论。良好的数据可视化往往需要一些技巧,比如可以使用matplotlib和seaborn等库来进行可视化操作。例如,在任务六中,使用seaborn库的kdeplot函数对泰坦尼克号数据集中不同年龄的人生存与死亡人数分布情况进行了可视化展示。此外,Pandas库中的stack()和unstack()方法也是数据分析中常用的工具,用于数据重构、聚合与运算。通过使用这些方法,可以对数据进行更灵活的处理和分析。例如,在任务一中,通过习教材《Python for Data Analysis》和进行相关的搜索,可以了解到GroupBy机制在数据分析中的应用。总之,Datawhale数据分析课程提供了丰富的知识和技巧,帮助生掌握数据分析的基本原理和实践技能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Datawhale数据分析课程01](https://blog.csdn.net/m0_71038676/article/details/124809826)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Datawhale数据分析课程第二章](https://blog.csdn.net/miaochangq/article/details/108077004)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值