1 初心
本系列笔记用于记录自己第一次参加Datawhale的组队学习。自己马上开启研究生学习生涯,因此熟练掌握数据分析这一重要技能对未来的学习能够提供很大的帮助,Datawhale团队在项目初衷里说数据分析是一个要从一堆数字中看到真相的过程。学会操作数据只是数据分析的一半功力,剩下的另一半要用我们的大脑,多多思考,多多总结,更要多动手,实打实的的敲代码。所以也希望在学习这门课时,多去推理,多去问问为什么;多多练习,确保理论实践结合起来,在课程结束的时候一定会有大收获。
因此希望自己再接下来的11天里面能够实事求是、脚踏实地完成各项任务,提高自己的硬实力。
特别喜欢一句话:也许不负光阴就是最好的努力,而努力就是最好的自己。
学习内容: 在前面我们已经学习了Pandas基础,第二章我们开始进入数据分析的业务部分,在第二章第一节的内容中,我们学习了数据的清洗,这一部分十分重要,只有数据变得相对干净,我们之后对数据的分析才可以更有力。而这一节,我们要做的是数据重构,数据重构依旧属于数据理解(准备)的范围。
开始之前,导入需要的包和数据:
import numpy as np
import pandas as pd
text = pd.read_csv('C:\\Users\\Administrator\\Desktop\\hands-on-data-analysis-master\\第二章项目集合\\data\\train-left-up.csv')
text.head()
2 数据重构
2.1 数据的合并
2.1.1 将data文件夹里面的所有数据都载入,观察数据的之间的关系
text_left_up = pd.read_csv("C:\\Users\\Administrator\\Desktop\\hands-on-data-analysis-master\\第二章项目集合\\data\\train-left-up.csv")
text_left_down = pd.read_csv("C:\\Users\\Administrator\\Desktop\\hands-on-data-analysis-master\\第二章项目集合\\data\\train-left-down.csv")
text_right_up = pd.read_csv("C:\\Users\\Administrator\\Desktop\\hands-on-data-analysis-master\\第二章项目集合\\data\\train-right-up.csv")
text_right_down = pd.read_csv("C:\\Users\\Administrator\\Desktop\\hands-on-data-analysis-master\\第二章项目集合\\data\\train-right-down.csv")
text_left_up.head()
text_left_down.head()
text_right_up.head()
text_right_down.head()
2.1.2 使用concat方法:将数据train-left-up.csv和train-right-up.csv横向合并为一张表,并保存这张表为result_up
list_up = [text_left_up,text_right_up]
result_up = pd.concat(list_up,axis=1)
result_up.head()
2.1.3 使用concat方法:将train-left-down和train-right-down横向合并为一张表,并保存这张表为result_down。然后将上边的result_up和result_down纵向合并为result。
list_down=[text_left_down,text_right_down]
result_down = pd.concat(list_down,axis=1)
result = pd.concat([result_up,result_down])
result.head()
2.1.4 使用DataFrame自带的方法join方法和append:完成任务二和任务三的任务
resul_up = text_left_up.join(text_right_up)
result_down = text_left_down.join(text_right_down)
result = result_up.append(result_down)
result.head()
2.1.5 使用Panads的merge方法和DataFrame的append方法:完成任务二和任务三的任务
result_up = pd.merge(text_left_up,text_right_up,left_index=True,right_index=True)
result_down = pd.merge(text_left_down,text_right_down,left_index=True,right_index=True)
result = resul_up.append(result_down)
result.head()
result.to_csv('result.csv')
2.2 换一种角度数据
将数据变为Series类型的数据
text = pd.read_csv('result.csv')
text.head()
# 代码写在这里
unit_result=text.stack().head(20)
unit_result.head()
#将代码保存为unit_result,csv
unit_result.to_csv('unit_result.csv')
test = pd.read_csv('unit_result.csv')
test.head()
2.3 数据的聚合与运算
2.3.1 通过《Python for Data Analysis》P303、Google or Baidu来学习了解GroupBy机制
2.3.2 计算泰坦尼克号男性与女性的平均票价
df = text['Fare'].groupby(text['Sex'])
means = df.mean()
means
2.3.3 统计泰坦尼克号中男女的存活人数
survived_sex = text['Survived'].groupby(text['Sex']).sum()
survived_sex.head()
2.3.4 计算客舱不同等级的存活人数
survived_pclass = text['Survived'].groupby(text['Pclass'])
survived_pclass.sum()
2.3.5 统计在不同等级的票中的不同年龄的船票花费的平均值
text.groupby(['Pclass','Age'])['Fare'].mean().head()
2.3.6 将任务二和任务三的数据合并,并保存到sex_fare_survived.csv
result = pd.merge(means,survived_sex,on='Sex')
result
result.to_csv('sex_fare_survived.csv')
2.3.7 得出不同年龄的总的存活人数,然后找出存活人数的最高的年龄,最后计算存活人数最高的存活率(存活人数/总人数)
#不同年龄的存活人数
survived_age = text['Survived'].groupby(text['Age']).sum()
survived_age.head()
找出最大值的年龄段
survived_age[survived_age.values==survived_age.max()]
_sum = text['Survived'].sum()
print(_sum)
#首先计算总人数
_sum = text['Survived'].sum()
print("sum of person:"+str(_sum))
precetn =survived_age.max()/_sum
print("最大存活率:"+str(precetn))