数据分析 python sql spl_【分析篇】:Pandas像sql操作python 进行数据分析

本文介绍了如何使用Python的Pandas库进行数据分析,包括数据导入、查看、选择、过滤、聚合等操作,强调了Pandas在数据处理中的灵活性和效率,适合数据分析师参考。
摘要由CSDN通过智能技术生成

前言:Python数据分析的基础在于对数据的提取,清洗,汇总,并思考整理发现数据规律的过程。以下模块是个人在数据分析常用模块,特此总结,便于查阅,构建数据分析体系。

数据源

import pandas as pd

import numpy as np

df = pd.DataFrame( {

'ONE': [1.1,1.2,1.1,1.4,99],

'TWO': [2.1,2.2,2.3,2.4,2.5],

'THREE': [3.1,3.2,3.3,3.4,3.5]})

dfOne = pd.DataFrame({

'ONEs': [1.1,1.2,1.1,1.4,'字符'],

'TWOs': ['B1','B2','B3','B4','B5'],

'THREEs': ['C1','C2','C3','C4','C5'],

'FOURs': [20,40,60,80,100],

'TIMEs':[

'2016-01-01 01:01:01',

'2016-02-01 02:02:02',

'2016-03-01 03:03:03',

'2016-04-04 04:04:04',

'2016-05-05 05:05:05']})

导入数据

import pandas as pd

from pandas import read_csv

df = read_table('D://PA//4.1//2.txt') : TXT

df = read_csv('D://PA//4.1//1.csv') :CSV(指定文件编码)

df = read_csv('D://PA//4.1//1.csv', encoding='UTF-8')

df = read_excel('D://PA//4.1//3.xlsx', sheetname='data'):EXCEL

df = pd.read_html(url):解析URL、字符串或者HTML文件,抽取其中的tables表格

df = pd.read_clipboard():从你的粘贴板获取内容,并传给read_table()

df = pd.DataFrame(dict):从字典对象导入数据,Key是列名,Value是数据

df = pd.read_json(json_string):从JSON格式的字符串导入数据

df = pd.read_sql(query, connection_object):从SQL表/库导入数据

查看、检查数据

DataFrame较为常见,DataFrame的生成可通过读取纯文本、Json等数据来生成,亦可以通过Python对象来生成

df.dtypes:数据框中的每一列的数据格式

df.index:数据框的索引

df.columns : 数据框中的列名

df.head(n):查看DataFrame对象的前n行

df.tail(n):查看DataFrame对象的最后n行

df.shape():查看行数和列数

http:// df.info() :查看索引、数据类型和内存信息

df.describe():查看数值型列的汇总统计

df.mean():返回所有列的均值

df.corr():返回列与列之间的相关系数

df.count():返回每一列中的非空值的个数

df.max():返回每一列的最大值

df.min():返回每一列的最小值

df.median():返回每一列的中位数

df.std():返回每一列的标准差

s.value_counts(dropna=False):查看Series对象的唯一值和计数

df.apply(pd.Series.value_counts):查看DataFrame对象中每一列的唯一值和计数

select

Select ONE,THREE from df where index >= 1 and index<= 3 order by index

df.loc[1:3,["ONE","THREE"]]

Select * from df where index >= 1 and index < 3 order by index

df[1:3]

Select ONE,THREE from df

df[['ONE', 'THREE']]

WHERE

Pandas实现where filter,较为常用的办法为df[df[colunm] boolean expr]

SELECT * from df where ONE > 1.1

df[df['ONE'] == 1.1]

df[df['ONE'] > 1.1]

df.query('ONE > 1.1')

AND

df[(df['ONE'] == 1.1) & (df['TWO'] == 2.1)]

OR

df[(df['ONE'] == 1.1) | (df['TWO'] == 2.1)]

IN

df[df['ONE'].isin([1.1,1.2])]

NOT

df[-(df['ONE'].isin([1.1,1.2]))]

LIKE

某列是否包含字符.str.contains('str')

select case when ONE like '字符' then -1 else 0 end from df

-df.ONE.str.contains('字符')

DISTINCT

保留重复元素中的第一个,删除重复元素的后面列

df.drop_duplicates(subset=['ONE'], keep='first', inplace=False)

1. subset,为选定的列做distinct,默认为所有列

2. keep,值选项{'first', 'last', False},保留重复元素中的第一个、最后一个,或全部删除;

3. inplace ,默认为False,返回一个新的dataframe;若为True,则返回去重后的原dataframe

select count(distinct ONE) from df

len(df.drop_duplicates(subset=['ONE'], keep='first', inplace=False))

GROUP

group一般会配合合计函数(Aggregate functions)使用,

比如:count、avg等。Pandas对合计函数的支持有限,有count和size函数实现SQL的count

select ONE,count(*) from df group by ONE

df.groupby('ONE').size()

df.groupby('ONE').count()

select THREE,sum(two) from df grouo by THREE

df.groupby('THREE').agg({'TWO': np.sum})

df.groupby('ONE').agg({'TWO': np.max})

select ONE,max(two) from df group by ONE

select TWO,count(distinct one) fron df group by TWO

df.groupby('TWO').agg({'ONE': pd.Series.nunique})

AS

SQL中使用as修改列的别名,Pandas也支持这种修改:

df.columns = ['A', 'B', 'C']

df.rename(columns={'A': 'ONE', 'B': 'TWO', 'C': 'THREE'}, inplace=True)

JOIN

Pandas中join的实现也有两种

A. JOIN,横向连接 len(df) = len(df1) --> df + df1,按DataFrame的index进行join的df.join(dfOne, how='left')

B.按on指定的列做join。Pandas满足left、right、inner、full outer四种join方式

select * from df as a left join dfOne as b on a.ONE = b.ONEs

pd.merge(df, dfOne, how='left', left_on='ONE', right_on='ONEs')

df1.join(df2,on=col1,how='inner'):对df1的列和df2的列执行SQL形式的join

OEDER

Pandas中支持多列order,并可以调整不同列的升序/降序,有更高的排序自由度:

select * from df order by ONE desc,THREE

df.sort_values(['ONE', 'THREE'], ascending=[False, True])

REPALCE

全局替换

df.replace(to_replace=1.1, value=1.2, inplace=True)

局部替换

df.replace({'TWO': {2.1: 1.2, 2.4: 2.5}}, inplace=True)

指定条件替换

select ONE,THREE,CASE WHEN ONE = 1.2 THEN 2999 ELSE TWO END from df

df.loc[df.ONE == 1.2,'TWO'] = '2999'

自定义函数

map(func),为Series的函数,DataFrame不能直接调用,需取列后再调用

select (ONE - 1) AS ONE from df

df['ONE'].map(lambda x: x - 1)

apply(func,axis=1) 对DataFrame中的每一行或则列应用函数func

df[['ONE', 'TWO']].apply(sum)

applymap(func),为element-wise函数,对每一个元素做func操作

df.applymap(lambda x: x.upper() if type(x) is str else x)

数据清洗

df.columns = ['a','b','c']:重命名列名

pd.isnull():检查DataFrame对象中的空值,并返回一个Boolean数组

pd.notnull():检查DataFrame对象中的非空值,并返回一个Boolean数组

df.dropna():删除所有包含空值的行

df.dropna(axis=1):删除所有包含空值的列

df.dropna(axis=1,thresh=n):删除所有小于n个非空值的行

df.fillna(x):用x替换DataFrame对象中所有的空值

s.astype(float):将Series中的数据类型更改为float类型

s.replace(1,'one'):用‘one’代替所有等于1的值

s.replace([1,3],['one','three']):用'one'代替1,用'three'代替3

df.rename(columns=lambda x: x + 1):批量更改列名

df.rename(columns={'old_name': 'new_ name'}):选择性更改列名

df.set_index('column_one'):更改索引列

df.rename(index=lambda x: x + 1):批量重命名索引

单字段的处理

'Is Chicago Not Chicago?' 多个字符合并成一个字符

>>>

parts = ['Is', 'Chicago', 'Not', 'Chicago?']

' '.join(parts)

数据缺失的处理,去除数据结构中值为空的数据 或者 数据零填充

newdf = df.dropna()

data = data.fillna(0)

数据类型转换,astype(str)转化为字符串

select cast(ONEs as string) as ONEs from df

>>>

dfOne['ONEs'] = dfOne['ONEs'].astype(str)

type(dfOne['ONEs'][0])

字符串提取,该列中第一个字符,字段的截取

select SUBSTRING (ONEs,0,1) from df

SUBSTRING ( '源字符串' , '截取起始位置(含该位置上的字符)' , '截取长度' )

>>>

bands = dfOne['ONEs'].str.slice(0, 1)

字段的拆分 相当于分列的功能

split(sep(用于分割的字符串),n(分割为多少列),expand(是否展开为数据框,默认FALSE))

>>>

newDF = dfOne['ONEs'].str.split('.', 1, True)

字段的合并,字段的合并

tel = dfOne['ONEs'] + dfOne['TWOs'] + dfOne['THREEs']

数据的标准化

最小-最大规范化

scale = (df.TWO-df.TWO.min())/(df.TWO.max()-df.TWO.min())

零-均值规范化

(df.TWO - df.TWO.mean())/df.TWO.std()

小数定标规范化

df.TWO/10**np.ceil(np.log10(df.TWO.abs().max()))

数据的分组

根据数据分析的对象特征,按照一定的数值指标,把数据分析对象划分为不同的区间的部分来进行研究

cut 函数 :cut(series,bins,right=True,labels=NULL)

1.series-需要分组的数据

2. bins-分组的划分数据 right-分组的时候,右边是否闭合,labels-分组的自定义标签,可以不自定义

import pandas

dfOne['FOURs']

bins = [min(dfOne.FOURs)-1, 40, 60, 80, max(dfOne.FOURs)+1]

labels = [ '40以下', '40到60', '60到80','80以上次']

pandas.cut(dfOne['FOURs'], bins, right=False, labels=labels)

时间格式转换

from pandas import to_datetime

dfTWO = to_datetime(dfOne.TIMEs, format='%Y/%m/%d')

type(dfTWO[0])

日期的抽取

dfTWO.dt.year

dfTWO.dt.second

dfTWO.dt.minute

dfTWO.dt.hour

dfTWO.dt.day

dfTWO.dt.month

dfTWO.dt.weekday

数据保存

import pandas

Excel = pandas.ExcelWriter('D:\\code\\DataCenter\\email\\{0}.xlsx'.format(ExcelName))

DataFrame1.to_excel(Excel,'sheet1',index = False)

DataFrame2.to_excel(Excel,'sheet1',index = False)

Excel.save()

总结

最后引用数据海洋前辈一句话,‘数据分析是指将隐没在数据中的信息,进行集中、清洗、提炼并发现策略的过程’。独立优秀的数据提取和数据清洗能力是每个数据分析师的基本功,夯实基本功,跑的更远!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值