python数据预处理案例_对pandas进行数据预处理的实例讲解

参加kaggle数据挖掘比赛,就第一个赛题Titanic的数据,学习相关数据预处理以及模型建立,本博客关注基于pandas进行数据预处理过程。包括数据统计、数据离散化、数据关联性分析

引入包和加载数据

import pandas as pd

import numpy as np

train_df =pd.read_csv('../datas/train.csv') # train set

test_df = pd.read_csv('../datas/test.csv') # test set

combine = [train_df, test_df]

清洗数据

查看数据维度以及类型

缺失值处理

查看object数据统计信息

数值属性离散化

计算特征与target属性之间关系

查看数据维度以及类型

#查看前五条数据

print train_df.head(5)

#查看每列数据类型以及nan情况

print train_df.info()

# 获得所有object属性

print train_data.describe(include=['O']).columns

查看object数据统计信息

#查看连续数值属性基本统计情况

print train_df.describe()

#查看object属性数据统计情况

print train_df.describe(include=['O'])

# 统计Title单列各个元素对应的个数

print train_df['Title'].value_counts()

# 属性列删除

train_df = train_df.drop(['Name', 'PassengerId'], axis=1)

缺失值处理

# 直接丢弃缺失数据列的行

print df4.dropna(axis=0,subset=['col1']) # 丢弃nan的行,subset指定查看哪几列

print df4.dropna(axis=1) # 丢弃nan的列

# 采用其他值填充

dataset['Cabin'] = dataset['Cabin'].fillna('U')

dataset['Title'] = dataset['Title'].fillna(0)

# 采用出现最频繁的值填充

freq_port = train_df.Embarked.dropna().mode()[0]

dataset['Embarked'] = dataset['Embarked'].fillna(freq_port)

# 采用中位数或者平均数填充

test_df['Fare'].fillna(test_df['Fare'].dropna().median(), inplace=True)

test_df['Fare'].fillna(test_df['Fare'].dropna().mean(), inplace=True)

数值属性离散化,object属性数值化

# 创造一个新列,FareBand,将连续属性Fare切分成四份

train_df['FareBand'] = pd.qcut(train_df['Fare'], 4)

# 查看切分后的属性与target属性Survive的关系

train_df[['FareBand', 'Survived']].groupby(['FareBand'], as_index=False).mean().sort_values(by='FareBand', ascending=True)

# 建立object属性映射字典

title_mapping = {"Mr": 1, "Miss": 2, "Mrs": 3, "Master": 4, "Royalty":5, "Officer": 6}

dataset['Title'] = dataset['Title'].map(title_mapping)

计算特征与target属性之间关系

object与连续target属性之间,可以groupby均值

object与离散target属性之间,先将target数值化,然后groupby均值,或者分别条形统计图

连续属性需要先切割然后再进行groupby计算,或者pearson相关系数

print train_df[['AgeBand', 'Survived']].groupby(['AgeBand'], as_index=False).mean().sort_values(by='AgeBand', ascending=True)

总结pandas基本操作

”'

创建df对象

””'

s1 = pd.Series([1,2,3,np.nan,4,5])

s2 = pd.Series([np.nan,1,2,3,4,5])

print s1

dates = pd.date_range(“20130101”,periods=6)

print dates

df = pd.DataFrame(np.random.rand(6,4),index=dates,columns=list(“ABCD”))

# print df

df2 = pd.DataFrame({“A”:1,

‘B':pd.Timestamp(‘20130102'),

‘C':pd.Series(1,index=list(range(4)),dtype='float32'),

‘D':np.array([3]*4,dtype=np.int32),

‘E':pd.Categorical([‘test','train','test','train']),

‘F':'foo'

})

# print df2.dtypes

df3 = pd.DataFrame({'col1':s1,

'col2':s2

})

print df3

'''

2.查看df数据

'''

print df3.head(2) #查看头几条

print df3.tail(3) #查看尾几条

print df.index #查看索引

print df.info() #查看非non数据条数

print type(df.values) #返回二元数组

# print df3.values

print df.describe() #对每列数据进行初步的统计

print df3

print df3.sort_values(by=['col1'],axis=0,ascending=True) #按照哪几列排序

'''

3.选择数据

'''

ser_1 = df3['col1']

print type(ser_1) #pandas.core.series.Series

print df3[0:2] #前三行

print df3.loc[df3.index[0]] #通过index来访问

print df3.loc[df3.index[0],['col2']] #通过行index,和列名来唯一确定一个位置

print df3.iloc[1] #通过位置来访问

print df3.iloc[[1,2],1:2] #通过位置来访问

print "==="

print df3.loc[:,['col1','col2']].as_matrix() # 返回nunpy二元数组

print type(df3.loc[:,['col1','col2']].as_matrix())

'''

4.布尔索引,过滤数据

'''

print df3[df3.col1 >2]

df4 = df3.copy()

df4['col3']=pd.Series(['one','two','two','three','one','two'])

print df4

print df4[df4['col3'].isin(['one','two'])]

df4.loc[:,'col3']="five"

print df4

'''

5.缺失值处理,pandas将缺失值用nan代替

'''

print pd.isnull(df4)

print df4.dropna(axis=0,subset=['col1']) # 丢弃nan的行,subset指定查看哪几列

print df4.dropna(axis=1) # 丢弃nan的列

以上这篇对pandas进行数据预处理的实例讲解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Pandas数据分析 普林大数据学院 普 林 大 数 据 学 院 P R I N C E T E C H S B I G D A T A C O L L E G E 2 3 目录 第一部分 文件读写 第二部分 变量离散化 第三部分 缺失值填补 普林大数据学院 普 林 大 数 据 学 院 P R I N C E T E C H S B I G D A T A C O L L E G E 第四部分 数据标准化 第五部分 数据合并 第六部分 数据组合 第七部分 数字编码 第八部分 OneHot编码 普 林 大 数 据 学 院 P R I N C E T E C H S B I G D A T A C O L L E G E 普林大数据学院 4 数据文件操作——读入数据 • pandas提供了一些用于将表格型数据读取为DataFrame对象的函数, 常用的函数为read_csv和read_table • 函数的选项可以划分为几个大类 • 索引:将一个或多个列当做返回的DataFrame处理,以及是否从文件、用户 获取列名 • 类型推断和数据转换:包括用户定义值的转换、缺失值标记列表等 • 日期解析:包括组合功能,比如将分散在多个列中的日期时间信息组合起来 • 迭代:支持对大文件进行逐块迭代 • 不规整数据问题:跳过一些行、页脚、注释或其他一些不重要的东西 普 林 大 数 据 学 院 P R I N C E T E C H S B I G D A T A C O L L E G E 普林大数据学院 5 文件读写 Pandas提供了一些用于将表格型数据读取位DataFrame对象的函数。 其中最常用的为read_csv和read_table。read_csv 从文件、URL、文件 型对象中加载带分隔符的数据。默认分隔符为逗号。read_table从文件、 URL、文件型对象中加载带分隔符的数据。默认分隔符为制表符 (“\t”) In[19]:df= pd.read_csv('iris.csv') df.head() Out[19]: sepal_len sepal_wh petal_len petal_wh target 0 5.1 3.5 1.4 0.2 0 1 4.9 3.0 1.4 0.2 0 2 4.7 3.2 1.3 0.2 0 3 4.6 3.1 1.5 0.2 0 4 5.0 3.6 1.4 0.2 0
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值