数据分析初步之数据预处理

        有段时间没写博客了,最近一直在忙自己的事。听说今天发一篇原创博客就可以领个勋章,想想没啥可写的,就把之前的学习笔记整理一下,1024,请赐我一枚勋章,哈哈哈……

数据分析初步之数据预处理

一、生成数据表

import numpy as np
import pandas as pd

1 导入数据表

df = pd.DataFrame(pd.read_csv('name.csv',header=1))
df = pd.DataFrame(pd.read_excel('name.xlsx'))

2 创建数据表

df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
                  "date":pd.date_range('20190102',periods=6),
                  "city":['Beijing','SH','guangzhou','shenzhen','shanghai','BEIJING'],
                  "age":[23,44,54,32,34,32],
                  "category":['100-A','100-B','110-A','110-C','210-A','130-F'],
                  "price":[1200,np.nan,2133,5433,np.nan,4432]},
                 columns=['id','date','city','category','age','price'])
print(df)
     id       date       city category  age   price
0  1001 2019-01-02    Beijing    100-A   23  1200.0
1  1002 2019-01-03         SH    100-B   44     NaN
2  1003 2019-01-04  guangzhou    110-A   54  2133.0
3  1004 2019-01-05   shenzhen    110-C   32  5433.0
4  1005 2019-01-06   shanghai    210-A   34     NaN
5  1006 2019-01-07    BEIJING    130-F   32  4432.0

二 、数据表检查

1 数据维度(行列)

df.shape
(6, 6)

2 数据表信息

df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 6 entries, 0 to 5
Data columns (total 6 columns):
id          6 non-null int64
date        6 non-null datetime64[ns]
city        6 non-null object
category    6 non-null object
age         6 non-null int64
price       4 non-null float64
dtypes: datetime64[ns](1), float64(1), int64(2), object(2)
memory usage: 368.0+ bytes

3 查看数据格式

df.dtypes
id                   int64
date        datetime64[ns]
city                object
category            object
age                  int64
price              float64
dtype: object

 查看单列格式

df['id'].dtype
dtype('int64')

4 查看空值

#检查数据空值
df.isnull()

       id     date	city	categoryage	price
0	False	False	False	False	False	False
1	False	False	False	False	False	True
2	False	False	False	False	False	False
3	False	False	False	False	False	False
4	False	False	False	False	False	True
5	False	False	False	False	False	False

 检查特定列空值

df['price'].isnull()
0    False
1     True
2    False
3    False
4     True
5    False
Name: price, dtype: bool

5 查看唯一值

df['city'].unique()
array(['Beijing', 'SH', 'guangzhou', 'shenzhen', 'shanghai', 'BEIJING'], dtype=object)

6 查看数据表数值

df.values
array([[1001, Timestamp('2019-01-02 00:00:00'), 'Beijing', '100-A', 23,
        1200.0],
       [1002, Timestamp('2019-01-03 00:00:00'), 'SH', '100-B', 44, nan],
       [1003, Timestamp('2019-01-04 00:00:00'), 'guangzhou', '110-A', 54,
        2133.0],
       [1004, Timestamp('2019-01-05 00:00:00'), 'shenzhen', '110-C', 32,
        5433.0],
       [1005, Timestamp('2019-01-06 00:00:00'), 'shanghai', '210-A', 34,
        nan],
       [1006, Timestamp('2019-01-07 00:00:00'), 'BEIJING', '130-F', 32,
        4432.0]], dtype=object)

7 查看列名称

df.columns
Index(['id', 'date', 'city', 'category', 'age', 'price'], dtype='object')

8 查看前10行数据,默认显示前十行

df.head(3)
      id	date	    city	category age	price
0	1001	2019-01-02	Beijing	100-A	23	1200.0
1	1002	2019-01-03	SH	100-B	44	NaN
2	1003	2019-01-04	guangzhou	110-A	54	2133.0

9 查看后10行数据,默认显示后十行

df.tail(3)

三、数据表清洗

1 处理空值(删除或填充)

#删除数据表中含有空值的行
df.dropna(how='any')

  #使用数值0填充数据表中的空值

df.fillna(value=0)

 #使用price平均值对空值NA进行填充

df['price'].fillna(df['price'].mean())
0    1200.0
1    3299.5
2    2133.0
3    5433.0
4    3299.5
5    4432.0
Name: price, dtype: float64
df['price']=df['price'].fillna(df['price'].mean())
print(df)

2 清理空格

#清除city字段中的字符空格

df['city']=df['city'].map(str.strip)

3 大小写转换  lower  upper   title(首字母大写)

#city列大小写转换
df['city']=df['city'].str.lower()
print(df)

4 更改数据格式

df['price']=df['price'].astype('int')

5 更改列名称

df.rename(columns={'category':'category-size'})

6 删除重复值  默认删除后重复的值

df['city'].drop_duplicates()
0      beijing
1           sh
2    guangzhou
3     shenzhen
4     shanghai
Name: city, dtype: object

  #删除先重复的值

df['city'].drop_duplicates(keep='last')
1           sh
2    guangzhou
3     shenzhen
4     shanghai
5      beijing
Name: city, dtype: object

7 数值的修改及替换

#数据替换
df['city'] = df['city'].replace('sh','shanghai')
print(df)

四、数据预处理

1 数据表合并

df1 = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006,1007,1008],
                   "gender":['male','female','male','female','male','female','male','female',],
                   "pay":['Y','N','Y','Y','N','Y','N','Y'],
                   "m-point":[10,12,20,40,40,40,30,20]})
print(df1)

  #数据表匹配合并

df_inner=pd.merge(df,df1,how='inner')
print(df_inner)

#除了inner方式之外,合并方式还有left,right,outer方式
#=pd.merge(df,df1,how='left')
#df_right=pd.merge(df,df1,how='right')
#df_outer=pd.merge(df,df1,how='outer')

2 设置索引列

df_inner.set_index('id')

3 排序(按索引值、按数值)

#按特定列的值排序

df_inner = df_inner.sort_values(by=['age'])
print(df_inner)

#按索引列排序

df_inner.sort_index()

4 数据分组

#如果price列的值>3000,group列显示high,否则显示low

df_inner['group'] = np.where(df_inner['price']>3000,'high','low')
print(df_inner)

#对复合多个条件的数据进行分组标记

df_inner.loc[(df_inner['city'] == 'beijing') & (df_inner['price'] >= 4000),'sign']=1
print(df_inner)

5 数据分列

#对category字段的值依次进行分列,并创建数据表,索引值为df_inner的索引列,列名称为category和size
split = pd.DataFrame((x.split('-') for x in df_inner['category']),index=df_inner.index,
            columns=['category','size'])
print(split)

  #将完成分列后的数据表与原df_inner数据表进行匹配

df_inner = pd.merge(df_inner,split,right_index=True,left_index=True)
print(df_inner)

五、数据提取

1 按标签提取(loc)

#按索引提取单行的数值

df_inner.loc[3]

#按索引提取区域行数值

df_inner.loc[0:5]

  #重设索引

df_inner.reset_index()

#设置日期为索引

df_inner = df_inner.set_index('date')
print(df_inner)

#提取4日之前的所有数据

df_inner[:'2019-01-04']

2 按位置提取(iloc)

#使用iloc按位置区域提取数据

df_inner.iloc[:3,:2]

#使用iloc按位置单独提取数据  [0,2,5]代表行的位置  [4,5]代表列的位置

df_inner.iloc[[0,2,5],[4,5]]

3 按标签和位置提取(ix)

#使用ix按索引标签和位置混合提取数据
df_inner.ix[:'2019-01-03',:4]

4 按条件提取(区域和条件值)

##判断city列的值是否为beijing
 

df_inner['city'].isin(['beijing'])
date
2019-01-02     True
2019-01-05    False
2019-01-07     True
2019-01-06    False
2019-01-03    False
2019-01-04    False
Name: city, dtype: bool

#先判断city列里是否包含beijing和shanghai,然后将复合条件的数据提取出来

df_inner.loc[df_inner['city'].isin(['beijing','shanghai'])]

category = df_inner['category_x']
print(category)
date
2019-01-02    100-A
2019-01-05    110-C
2019-01-07    130-F
2019-01-06    210-A
2019-01-03    100-B
2019-01-04    110-A
Name: category_x, dtype: object

 #提取前三个字符,并生成数据表

pd.DataFrame(category.str[:3])

第六章 数据筛选

#按条件筛选(与、或、非)

##使用“与”条件进行筛选

df_inner.loc[(df_inner['age']>25) & (df_inner['city'] == 'beijing'),['id','city','age','category_x','gender']]

##使用“或”进行筛选

df_inner.loc[(df_inner['age']>25) | (df_inner['city'] == 'beijing'),['id','city','age','category_x','gender']].sort_values('age')

##对筛选后的数据按price字段进行求和

df_inner.loc[(df_inner['age']>25) | (df_inner['city'] == 'beijing'),['id','city','age','category_x','gender','price']].sort_values('age').price.sum()
结果:19796

##使用“非”条件进行筛选

df_inner.loc[(df_inner['city'] != 'beijing'),['id','city','age','category_x','gender']].sort_values('id')

#对筛选后的数据按city列进行计数

df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].sort_values('id').city.count()

结果:4

##使用query函数进行筛选

df_inner.query('city == ["beijing","shanghai"]')

##对筛选后的结果按price进行求和

df_inner.query('city == ["beijing","shanghai"]').price.sum()

结果:12230

七、数据汇总

1 分类汇总

##对所有列进行计数汇总

df_inner.groupby('city').count()

#对特定的ID列进行计数汇总

df_inner.groupby('city')['id'].count()
city
beijing      2
guangzhou    1
shanghai     2
shenzhen     1
Name: id, dtype: int64

#对两个字段进行汇总计数

df_inner.groupby(['city','size'])['id'].count()

#对city字段进行汇总并计算price的合计和均值

df_inner.groupby('city')['price'].agg([len,np.sum, np.mean])

2 数据透视

#数据透视表
pd.pivot_table(df_inner,index=["city"],values=["price"],columns=[
"size"],aggfunc=[len,np.sum],fill_value=0,margins=True)

八 数据统计

1.数据采样

#简单的数据采样
df_inner.sample(n=3)

 #手动设置采样权重

weights = [0, 0, 0, 0, 0.5, 0.5]
df_inner.sample(n=2, weights=weights)

#采样后不放回

df_inner.sample(n=6, replace=False)

#采样后放回

df_inner.sample(n=6, replace=True)

2 描述统计   Describe

#数据表描述性统计
df_inner.describe().round(2).T

3 标准差

df_inner['price'].std()

结果:1523.3516556155596

4 协方差

#两个字段间的协方差

df_inner['price'].cov(df_inner['m-point'])

结果:17263.200000000001

#数据表中所有字段间的协方差

df_inner.cov()

5 相关分析

##相关性分析

df_inner['price'].corr(df_inner['m-point'])

结果:0.77466555617085253

#数据表相关性分析

df_inner.corr()

九、数据输出

1 写入Excle

#输出到Excel格式
df_inner.to_excel('Excel_to_Python.xlsx', sheet_name='bluewhale_cc')

2 写入csv

#输出到CSV格式
df_inner.to_csv('Excel_to_Python.csv')

下一篇:案例之990万次骑行:纽约自行车共享系统分析

学习资料:《从Excel到Python——数据分析进阶指南》

  • 6
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Steven灬

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值