有段时间没写博客了,最近一直在忙自己的事。听说今天发一篇原创博客就可以领个勋章,想想没啥可写的,就把之前的学习笔记整理一下,1024,请赐我一枚勋章,哈哈哈……
数据分析初步之数据预处理
一、生成数据表
import numpy as np
import pandas as pd
1 导入数据表
df = pd.DataFrame(pd.read_csv('name.csv',header=1))
df = pd.DataFrame(pd.read_excel('name.xlsx'))
2 创建数据表
df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
"date":pd.date_range('20190102',periods=6),
"city":['Beijing','SH','guangzhou','shenzhen','shanghai','BEIJING'],
"age":[23,44,54,32,34,32],
"category":['100-A','100-B','110-A','110-C','210-A','130-F'],
"price":[1200,np.nan,2133,5433,np.nan,4432]},
columns=['id','date','city','category','age','price'])
print(df)
id date city category age price
0 1001 2019-01-02 Beijing 100-A 23 1200.0
1 1002 2019-01-03 SH 100-B 44 NaN
2 1003 2019-01-04 guangzhou 110-A 54 2133.0
3 1004 2019-01-05 shenzhen 110-C 32 5433.0
4 1005 2019-01-06 shanghai 210-A 34 NaN
5 1006 2019-01-07 BEIJING 130-F 32 4432.0
二 、数据表检查
1 数据维度(行列)
df.shape
(6, 6)
2 数据表信息
df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 6 entries, 0 to 5
Data columns (total 6 columns):
id 6 non-null int64
date 6 non-null datetime64[ns]
city 6 non-null object
category 6 non-null object
age 6 non-null int64
price 4 non-null float64
dtypes: datetime64[ns](1), float64(1), int64(2), object(2)
memory usage: 368.0+ bytes
3 查看数据格式
df.dtypes
id int64
date datetime64[ns]
city object
category object
age int64
price float64
dtype: object
查看单列格式
df['id'].dtype
dtype('int64')
4 查看空值
#检查数据空值
df.isnull()
id date city categoryage price
0 False False False False False False
1 False False False False False True
2 False False False False False False
3 False False False False False False
4 False False False False False True
5 False False False False False False
检查特定列空值
df['price'].isnull()
0 False
1 True
2 False
3 False
4 True
5 False
Name: price, dtype: bool
5 查看唯一值
df['city'].unique()
array(['Beijing', 'SH', 'guangzhou', 'shenzhen', 'shanghai', 'BEIJING'], dtype=object)
6 查看数据表数值
df.values
array([[1001, Timestamp('2019-01-02 00:00:00'), 'Beijing', '100-A', 23,
1200.0],
[1002, Timestamp('2019-01-03 00:00:00'), 'SH', '100-B', 44, nan],
[1003, Timestamp('2019-01-04 00:00:00'), 'guangzhou', '110-A', 54,
2133.0],
[1004, Timestamp('2019-01-05 00:00:00'), 'shenzhen', '110-C', 32,
5433.0],
[1005, Timestamp('2019-01-06 00:00:00'), 'shanghai', '210-A', 34,
nan],
[1006, Timestamp('2019-01-07 00:00:00'), 'BEIJING', '130-F', 32,
4432.0]], dtype=object)
7 查看列名称
df.columns
Index(['id', 'date', 'city', 'category', 'age', 'price'], dtype='object')
8 查看前10行数据,默认显示前十行
df.head(3)
id date city category age price
0 1001 2019-01-02 Beijing 100-A 23 1200.0
1 1002 2019-01-03 SH 100-B 44 NaN
2 1003 2019-01-04 guangzhou 110-A 54 2133.0
9 查看后10行数据,默认显示后十行
df.tail(3)
三、数据表清洗
1 处理空值(删除或填充)
#删除数据表中含有空值的行
df.dropna(how='any')
#使用数值0填充数据表中的空值
df.fillna(value=0)
#使用price平均值对空值NA进行填充
df['price'].fillna(df['price'].mean())
0 1200.0
1 3299.5
2 2133.0
3 5433.0
4 3299.5
5 4432.0
Name: price, dtype: float64
df['price']=df['price'].fillna(df['price'].mean())
print(df)
2 清理空格
#清除city字段中的字符空格
df['city']=df['city'].map(str.strip)
3 大小写转换 lower upper title(首字母大写)
#city列大小写转换
df['city']=df['city'].str.lower()
print(df)
4 更改数据格式
df['price']=df['price'].astype('int')
5 更改列名称
df.rename(columns={'category':'category-size'})
6 删除重复值 默认删除后重复的值
df['city'].drop_duplicates()
0 beijing
1 sh
2 guangzhou
3 shenzhen
4 shanghai
Name: city, dtype: object
#删除先重复的值
df['city'].drop_duplicates(keep='last')
1 sh
2 guangzhou
3 shenzhen
4 shanghai
5 beijing
Name: city, dtype: object
7 数值的修改及替换
#数据替换
df['city'] = df['city'].replace('sh','shanghai')
print(df)
四、数据预处理
1 数据表合并
df1 = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006,1007,1008],
"gender":['male','female','male','female','male','female','male','female',],
"pay":['Y','N','Y','Y','N','Y','N','Y'],
"m-point":[10,12,20,40,40,40,30,20]})
print(df1)
#数据表匹配合并
df_inner=pd.merge(df,df1,how='inner')
print(df_inner)
#除了inner方式之外,合并方式还有left,right,outer方式
#=pd.merge(df,df1,how='left')
#df_right=pd.merge(df,df1,how='right')
#df_outer=pd.merge(df,df1,how='outer')
2 设置索引列
df_inner.set_index('id')
3 排序(按索引值、按数值)
#按特定列的值排序
df_inner = df_inner.sort_values(by=['age'])
print(df_inner)
#按索引列排序
df_inner.sort_index()
4 数据分组
#如果price列的值>3000,group列显示high,否则显示low
df_inner['group'] = np.where(df_inner['price']>3000,'high','low')
print(df_inner)
#对复合多个条件的数据进行分组标记
df_inner.loc[(df_inner['city'] == 'beijing') & (df_inner['price'] >= 4000),'sign']=1
print(df_inner)
5 数据分列
#对category字段的值依次进行分列,并创建数据表,索引值为df_inner的索引列,列名称为category和size
split = pd.DataFrame((x.split('-') for x in df_inner['category']),index=df_inner.index,
columns=['category','size'])
print(split)
#将完成分列后的数据表与原df_inner数据表进行匹配
df_inner = pd.merge(df_inner,split,right_index=True,left_index=True)
print(df_inner)
五、数据提取
1 按标签提取(loc)
#按索引提取单行的数值
df_inner.loc[3]
#按索引提取区域行数值
df_inner.loc[0:5]
#重设索引
df_inner.reset_index()
#设置日期为索引
df_inner = df_inner.set_index('date')
print(df_inner)
#提取4日之前的所有数据
df_inner[:'2019-01-04']
2 按位置提取(iloc)
#使用iloc按位置区域提取数据
df_inner.iloc[:3,:2]
#使用iloc按位置单独提取数据 [0,2,5]代表行的位置 [4,5]代表列的位置
df_inner.iloc[[0,2,5],[4,5]]
3 按标签和位置提取(ix)
#使用ix按索引标签和位置混合提取数据
df_inner.ix[:'2019-01-03',:4]
4 按条件提取(区域和条件值)
##判断city列的值是否为beijing
df_inner['city'].isin(['beijing'])
date
2019-01-02 True
2019-01-05 False
2019-01-07 True
2019-01-06 False
2019-01-03 False
2019-01-04 False
Name: city, dtype: bool
#先判断city列里是否包含beijing和shanghai,然后将复合条件的数据提取出来
df_inner.loc[df_inner['city'].isin(['beijing','shanghai'])]
category = df_inner['category_x']
print(category)
date
2019-01-02 100-A
2019-01-05 110-C
2019-01-07 130-F
2019-01-06 210-A
2019-01-03 100-B
2019-01-04 110-A
Name: category_x, dtype: object
#提取前三个字符,并生成数据表
pd.DataFrame(category.str[:3])
第六章 数据筛选
#按条件筛选(与、或、非)
##使用“与”条件进行筛选
df_inner.loc[(df_inner['age']>25) & (df_inner['city'] == 'beijing'),['id','city','age','category_x','gender']]
##使用“或”进行筛选
df_inner.loc[(df_inner['age']>25) | (df_inner['city'] == 'beijing'),['id','city','age','category_x','gender']].sort_values('age')
##对筛选后的数据按price字段进行求和
df_inner.loc[(df_inner['age']>25) | (df_inner['city'] == 'beijing'),['id','city','age','category_x','gender','price']].sort_values('age').price.sum()
结果:19796
##使用“非”条件进行筛选
df_inner.loc[(df_inner['city'] != 'beijing'),['id','city','age','category_x','gender']].sort_values('id')
#对筛选后的数据按city列进行计数
df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort_values('id').city.count()
结果:4
##使用query函数进行筛选
df_inner.query('city == ["beijing","shanghai"]')
##对筛选后的结果按price进行求和
df_inner.query('city == ["beijing","shanghai"]').price.sum()
结果:12230
七、数据汇总
1 分类汇总
##对所有列进行计数汇总
df_inner.groupby('city').count()
#对特定的ID列进行计数汇总
df_inner.groupby('city')['id'].count()
city
beijing 2
guangzhou 1
shanghai 2
shenzhen 1
Name: id, dtype: int64
#对两个字段进行汇总计数
df_inner.groupby(['city','size'])['id'].count()
#对city字段进行汇总并计算price的合计和均值
df_inner.groupby('city')['price'].agg([len,np.sum, np.mean])
2 数据透视
#数据透视表
pd.pivot_table(df_inner,index=["city"],values=["price"],columns=[
"size"],aggfunc=[len,np.sum],fill_value=0,margins=True)
八 数据统计
1.数据采样
#简单的数据采样
df_inner.sample(n=3)
#手动设置采样权重
weights = [0, 0, 0, 0, 0.5, 0.5]
df_inner.sample(n=2, weights=weights)
#采样后不放回
df_inner.sample(n=6, replace=False)
#采样后放回
df_inner.sample(n=6, replace=True)
2 描述统计 Describe
#数据表描述性统计
df_inner.describe().round(2).T
3 标准差
df_inner['price'].std()
结果:1523.3516556155596
4 协方差
#两个字段间的协方差
df_inner['price'].cov(df_inner['m-point'])
结果:17263.200000000001
#数据表中所有字段间的协方差
df_inner.cov()
5 相关分析
##相关性分析
df_inner['price'].corr(df_inner['m-point'])
结果:0.77466555617085253
#数据表相关性分析
df_inner.corr()
九、数据输出
1 写入Excle
#输出到Excel格式
df_inner.to_excel('Excel_to_Python.xlsx', sheet_name='bluewhale_cc')
2 写入csv
#输出到CSV格式
df_inner.to_csv('Excel_to_Python.csv')
下一篇:案例之990万次骑行:纽约自行车共享系统分析
学习资料:《从Excel到Python——数据分析进阶指南》