pandas-索引

索引

1、单级索引

在这里插入图片描述
总结:
(1)iloc表示位置索引,loc表示标签索引,[]也具有很大的便利性,各有特点。
(2)所有在loc中使用的切片全部包含右端点、iloc方法切片右端点不包含。
(3)本质上说,loc中能传入的只有布尔列表和索引子集构成的列表。
(4)iloc中接收的参数只能为整数或整数列表,不能使用布尔索引。[]操作符常用于列选择或布尔选择,尽量避免行的选择。
(5) []操作符。如果不想陷入困境,请不要在行索引为浮点时使用[]操作符,因为在Series中的浮点[]并不是进行位置比较,而是值比较,非常特殊。

import numpy as np
import pandas as pd
#数据加载
df = pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas/joyful-pandas/data/table.csv',index_col='ID')
df.head()
#一、单级索引
#1. loc方法、iloc方法、[]操作符
#(a)loc方法
#① 单行索引:
df.loc[1103]
#② 多行索引:
df.loc[[1102,2304]]
df.loc[1304:]
df.loc[2402::]
df.loc[2402::-1]
#[::-1] 顺序相反操作 ,[-1] 读取倒数第一个元素,[2402::-1] 从下标为3(从0开始)的元素开始翻转读取
#③ 单列索引:
df.loc[:,'Height'].head()
#④ 多列索引:
df.loc[:,['Height','Math']].head()
#⑤ 联合索引
df.loc[:,'Height':'Math'].head()
#⑥ 函数式索引:
df.loc[lambda x:x['Gender']=='M'].head()
#loc中使用的函数,传入参数就是前面的df
#lambda函数也叫匿名函数,即函数没有具体的名称。
#def f(x):
#return x**2
#print f(4)
#Python中使用lambda的话,写成这样
#g = lambda x : x**2
#print g(4)
def f(x):
    return [1101,1103]
df.loc[f]
#⑦ 布尔索引
df.loc[df['Address'].isin(['street_7','street_4'])].head()#筛选出Address是street_7或street_4的观测值,isin
df.loc[[True if i[-1]=='4' or i[-1]=='7' else False for i in df['Address'].values]].head()
#判断Address最后一个数是4或7
#(b)iloc方法(注意与loc不同,切片右端点不包含)
#① 单行索引:
df.iloc[0]
df.iloc[3]#位置在第4行的观测值信息
#② 多行索引:
df.iloc[3:5]#不包含切片右端,所以只显示第4行和第5行
#③ 单列索引:
df.iloc[:,3].head()#不考虑索引列的第4列
#④ 多列索引:
df.iloc[:,7::-2]#从第8列开始,,每次往前跳过一列
#⑤ 混合索引:
df.iloc[3::4,7::-2].head()#从第4行开始到最后,中间跳过3行,显示第四行
#⑥ 函数式索引:
df.iloc[lambda x:[3]].head()
#c) []操作符
#(c.1)Series的[]操作
#① 单元素索引:
s = pd.Series(df['Math'],index=df.index)   #s是df中的Math序列,索引也是df的索引ID
#s[1101] #34.0
#使用的是索引标签
#② 多行索引:
s[0:4]
#使用的是绝对位置的整数切片,位置,不包括右端,从1到4行,不包括4对应的第五行
#③ 函数式索引:
s[lambda x: x.index[16::-6]]  #从第17行开始往前,间隔5个
#注意使用lambda函数时,直接切片(如:s[lambda x: 16::-6])就报错,此时使用的不是绝对位置切片,而是元素切片,非常易错
#④ 布尔索引:
s[s.values>80]
(c.2)DataFrame的[]操作
#① 单行索引:
df[1:2]
#这里非常容易写成df['label'],会报错
#同Series使用了绝对位置切片
#如果想要获得某一个元素,可用如下get_loc方法,把元素转化为位置,然后[]来位置索引:
row = df.index.get_loc(1102)
df[row:row+1]
#② 多行索引:
#用切片,如果是选取指定的某几行,推荐使用loc,否则很可能报错
df[3:5]#不包含右端
#③ 单列索引:
df['School'].head()
#④ 多列索引:
df[['School','Math']].head()
#⑤函数式索引:
df[lambda x:['Math','Physics']].head()
#⑥ 布尔索引:
df[df['Gender']=='F'].head()
#2. 布尔索引
#(a)布尔符号:'&','|','~':分别代表和and,或or,取反not
df[(df['Gender']=='F')&(df['Address']=='street_2')].head()
df[(df['Math']>85)|(df['Address']=='street_7')].head()
df[~((df['Math']>75)|(df['Address']=='street_1'))].head()
#loc和[]中相应位置都能使用布尔列表选择:
df.loc[df['Math']>60,(df[:8]['Address']=='street_6').values].head()
#如果不加values就会索引对齐发生错误,Pandas中的索引对齐是一个重要特征,很多时候非常使用
#但是若不加以留意,就会埋下隐患
(b) isin方法
df[df['Address'].isin(['street_1','street_4'])&df['Physics'].isin(['A','A+'])]
#上面也可以用字典方式写:
df[df[['Address','Physics']].isin({'Address':['street_1','street_4'],'Physics':['A','A+']}).all(1)]
#all与&的思路是类似的,其中的1代表按照跨列方向判断是否全为True
#3. 快速标量索引
display(df.at[1101,'School'])
display(df.loc[1101,'School'])
display(df.iat[0,0])
display(df.iloc[0,0])
#可尝试去掉注释对比时间
%timeit df.at[1101,'School']
%timeit df.loc[1101,'School']
%timeit df.iat[0,0]
%timeit df.iloc[0,0]
#4. 区间索引
#(a)利用interval_range方法
pd.interval_range(start=0,end=5)
#closed参数可选'left''right''both''neither',默认左开右闭
pd.interval_range(start=0,periods=8,freq=5)
#periods参数控制区间个数,freq控制步长
#(b)利用cut将数值列转为区间为元素的分类变量,例如统计数学成绩的区间情况:
math_interval = pd.cut(df['Math'],bins=[0,40,60,80,100])
#注意,如果没有类型转换,此时并不是区间类型,而是category类型
math_interval.head()
#(c)区间索引的选取
df_i = df.join(math_interval,rsuffix='_interval')[['Math','Math_interval']]\.reset_index().set_index('Math_interval')
df_i.head()
df_i.loc[65].head()
#包含该值就会被选中
df_i.loc[[65,90]].head()
#如果想要选取某个区间,先要把分类变量转为区间变量,再使用overlap方法:
#df_i.loc[pd.Interval(70,75)].head() 报错
df_i[df_i.index.astype('interval').overlaps(pd.Interval(70, 85))].head()

2、多级索引

在这里插入图片描述

#1. 创建多级索引
#(a)通过from_tuple或from_arrays
#① 直接创建元组
tuples = [('A','a'),('A','b'),('B','a'),('B','b')]
mul_index = pd.MultiIndex.from_tuples(tuples, names=('Upper', 'Lower'))#通过from_tuples创建多级索引
mul_index
pd.DataFrame({'Score':['perfect','good','fair','bad']},index=mul_index)
#② 利用zip创建元组
L1 = list('AABB')
L2 = list('abab')
tuples = list(zip(L1,L2))
mul_index = pd.MultiIndex.from_tuples(tuples, names=('Upper', 'Lower'))
pd.DataFrame({'Score':['perfect','good','fair','bad']},index=mul_index)
#③ 通过Array创建
arrays = [['A','a'],['A','b'],['B','a'],['B','b']]
mul_index = pd.MultiIndex.from_tuples(arrays, names=('Upper', 'Lower'))
pd.DataFrame({'Score':['perfect','good','fair','bad']},index=mul_index)
mul_index
#由此看出内部自动转成元组
#(b)通过from_product
L1 = ['A','B']
L2 = ['a','b']
pd.MultiIndex.from_product([L1,L2],names=('Upper', 'Lower'))
#两两相乘
#(c)指定df中的列创建(set_index方法)
df_using_mul = df.set_index(['Class','Address'])
df_using_mul.head()
#2、多层索引切片
df_using_mul.head()
(a)一般切片
#df_using_mul.loc['C_2','street_5']
#当索引不排序时,单个索引会报出性能警告
#df_using_mul.index.is_lexsorted()
#该函数检查是否排序
df_using_mul.sort_index().loc['C_2','street_5']
#df_using_mul.sort_index().index.is_lexsorted()
#df_using_mul.loc[('C_2','street_5'):] 报错
#当不排序时,不能使用多层切片
df_using_mul.sort_index().loc[('C_2','street_6'):('C_3','street_4')]
#注意此处由于使用了loc,因此仍然包含右端点
df_using_mul.sort_index().loc[('C_2','street_7'):'C_3'].head()
#非元组也是合法的,表示选中该层所有元素
#(b)第一类特殊情况:由元组构成列表
df_using_mul.sort_index().loc[[('C_2','street_7'),('C_3','street_2')]]
#表示选出某几个元素,精确到最内层索引
#(c)第二类特殊情况:由列表构成元组
df_using_mul.sort_index().loc[(['C_2','C_3'],['street_4','street_7']),:]
#选出第一层在‘C_2’和'C_3'中且第二层在'street_4'和'street_7'中的行
#3、索引中的slice对象,应用非常灵活
idx=pd.IndexSlice
df_s.loc[idx['B':,df_s['D']['d']>0.3],idx[df_s.sum()>4]]
#df_s.sum()默认为对列求和,因此返回一个长度为9的数值列表
#4、索引层的交换
(a)swaplevel方法(两层交换)
df_using_mul.head()
df_using_mul.swaplevel(i=1,j=0,axis=0).sort_index().head()#axis=0按列、跨行
df_using_mul.swaplevel(i=1,j=0,axis=0).sort_index().head()#axis=0按列、跨行
#(b)reorder_levels方法(多层交换)
df_muls = df.set_index(['School','Class','Address'])
df_muls.head()
df_muls.reorder_levels([2,0,1],axis=0).sort_index().head() #根据位置多层交换
#如果索引有name,可以直接使用name
df_muls.reorder_levels(['Address','School','Class'],axis=0).sort_index().head()#根据名称多层交换

3、索引设定

在这里插入图片描述

#1.index_col参数
pd.read_csv('data/table.csv',index_col=['Address','School']).head()#index_col是read_csv中的一个参数,而不是某一个方法:
#2. reindex和reindex_like¶
#reindex是指重新索引,它的重要特性在于索引对齐,很多时候用于重新排序
df.reindex(index=[1101,1203,1206,2402])
df.reindex(columns=['Height','Gender','Average'])
#可以选择缺失值的填充方法:fill_value和method(bfill/ffill/nearest),其中method参数必须索引单调
df.reindex(index=[1101,1203,1206,2402],method='bfill')#bfill表示用所在索引1206的后一个有效行填充,ffill为前一个有效行,nearest是指最近的
df.reindex(index=[1101,1203,1206,2402],method='nearest')#数值上1205比1301更接近1206,因此用前者填充
#reindex_like的作用为生成一个横纵索引完全与参数列表一致的DataFrame,数据使用被调用的表
df_temp = pd.DataFrame({'Weight':np.zeros(5),
                        'Height':np.zeros(5),
                        'ID':[1101,1104,1103,1106,1102]}).set_index('ID')
df_temp.reindex_like(df[0:5][['Weight','Height']])
#如果df_temp单调还可以使用method参数:
df_temp = pd.DataFrame({'Weight':range(5),
                        'Height':range(5),
                        'ID':[1101,1104,1103,1106,1102]}).set_index('ID').sort_index()
df_temp.reindex_like(df[0:5][['Weight','Height']],method='bfill')
#可以自行检验这里的1105的值是否是由bfill规则填充
#用level参数指定哪一层被reset,用col_level参数指定set到哪一层:
L1,L2 = ['A','B','C'],['a','b','c']
mul_index1 = pd.MultiIndex.from_product([L1,L2],names=('Upper', 'Lower'))
L3,L4 = ['D','E','F'],['d','e','f']
mul_index2 = pd.MultiIndex.from_product([L3,L4],names=('Big', 'Small'))
df_temp = pd.DataFrame(np.random.rand(9,9),index=mul_index1,columns=mul_index2)

在这里插入图片描述

df_temp1 = df_temp.reset_index(level=1,col_level=1)
df_temp1.head()

在这里插入图片描述

#rename_axis是针对多级索引的方法,作用是修改某一层的索引名,而不是索引标签
df_temp.rename_axis(index={'Lower':'LowerLower'},columns={'Big':'BigBig'})
df_temp.rename(index={'A':'T'},columns={'e':'changed_e'}).head()
#rename方法用于修改列或者行索引标签,而不是索引名

4、常用索引函数

常用索引函数包括where()、mask()、query等。

#1. where()函数
df.where(df['Gender']=='M').head()# 不满足条件的行全部被设置为NaN
df.where(df['Gender']=='M').dropna().head()# 通过这种方法筛选结果和[]操作符的结果完全一致
df.where(df['Gender']=='M',np.random.rand(df.shape[0],df.shape[1])).head()#第一个参数为布尔条件,第二个参数为填充值

对不满足布尔条件的根据可以通过第二个参数的设置进行填充。在这里插入图片描述
mask函数与where功能上相反,其余完全一致,即对条件为True的单元进行填充

#2、mask函数
df.mask(df['Gender']=='M').dropna().head()#只会显示'Gender'不是'M'的观测
df.mask(df['Gender']=='M',np.random.rand(df.shape[0],df.shape[1])).head()##显示出所有'Gender'不是M的观测,对于满足条件的则根据第二个参数填充

在这里插入图片描述
query函数中的布尔表达式中,下面的符号都是合法的:行列索引名、字符串、and/not/or/&/|/~/not in/in/==/!=、四则运算符

#query函数
df.query('(Address in ["street_6","street_7"])&(Weight>(70+10))&(ID in [1303,2304,2402])')#s三个约束条件,可以多种符号,比较灵活

5、重复值

#重复元素判断
#1. duplicated方法,该方法返回了是否重复的布尔列表
df.duplicated('Class').head()#可选参数keep默认为keep='first',即首次出现设为不重复为false,其余为TRUE
df.duplicated('Class',keep='last').tail()#keep='first'则最后一次设为不重复显示为false,其余为TRUE
df.duplicated('Class',keep=False).head()#keep=False则所有重复项为TRUE
# 剔除重复项,drop_duplicates方法
df.drop_duplicates('Class')
#参数与duplicate函数类似:
df.drop_duplicates('Class',keep='last')#去除Class相同的观测,保留重复值中最后一个
df.drop_duplicates(['School','Class'])#在传入多列时等价于将多列共同视作一个多级索引,比较多列同时重复项

6、抽样

pandas中自带抽样方法,涉及多个参数,包括常用抽样个数n、抽样比例frac、是否有放回relpace、抽样维度axis、抽样权重weights等。

DataFrame.sample(n=None, frac=None, replace=False, axis=None,weights=None, random_state=None, )
#这里的抽样函数指的就是sample函数
df.sample(n=5)#n为样本量
df.sample(frac=0.05)#frac是抽样比例
df.sample(n=df.shape[0],replace=True).head()#replace为是否放回
df.sample(n=35,replace=True).index.is_unique#返回一个布尔判断结果false,对于有放回的随机抽样,索引不是唯一的,可以有相同
df.sample(n=3,axis=0)#axis为抽样维度,默认为0,此处是随机取出3行观测
df.sample(n=3,axis=1)#此处随机取出三列属性对应所有行观测
df.sample(n=3,weights=np.random.rand(df.shape[0]))#weights为样本权重,自动归一化,#np.random.rand(df.shape[0])会生成数据集行数35个在【0,1)均匀分布的随机数,对应权重越大,越大概率被随机选到
#以某一列为权重,根据属性大小值相应权重,这在抽样理论中很常见
df.sample(n=3,weights=df['Math']).head()

在这里插入图片描述

7、具体案例分析

【练习一】 一份关于UFO的数据集

df = pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas/joyful-pandas/data/UFO.csv')
df.head()
#(a)在所有被观测时间超过60s的时间中,哪个形状最多?
S1=df[(df['duration (seconds)']>60)]
S1['shape'].value_counts().index[0]
#答案是'light'
#(b)对经纬度进行划分:-180°至180°以30°为一个划分,-90°至90°以18°为一个划分,请问哪个区域中报告的UFO事件数量最多?
bins_long = np.linspace(-180,180,13).tolist()
bins_la = np.linspace(-90,90,11).tolist()
cuts_long = pd.cut(df['longitude'],bins=bins_long)
df['cuts_long'] = cuts_long
cuts_la = pd.cut(df['latitude'],bins=bins_la)
df['cuts_la'] = cuts_la
df.set_index(['cuts_long','cuts_la']).index.value_counts().head()

【练习二】 关于口袋妖怪的数据集

df1 = pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas/joyful-pandas/data/Pokemon.csv')
#(a)双属性的Pokemon占总体比例的多少?
df11['Type 2'].count()/df1.shape[0]

#(b)在所有种族值(Total)不小于580的Pokemon中,非神兽(Legendary=False)的比例为多少?
df1.query('Total >= 580')['Legendary'].value_counts(normalize=True)

#(c)在第一属性为格斗系(Fighting)的Pokemon中,物攻排名前三高的是哪些?
df1[df1['Type 1']=='Fighting'].sort_values(by='Attack',ascending=False).iloc[:3]
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: pandas-official-tut-zh epub是指Pandas官方教程的中文电子书格式。Pandas是一个强大的数据分析和处理库,被广泛应用于数据科学和数据分析领域。Pandas官方教程提供了详细的指导和示例,帮助用户学习和使用Pandas库。 这本Pandas官方教程的中文电子书以epub格式提供,这意味着我们可以在支持epub格式的电子书阅读器或软件中阅读它。epub格式是一种开放的电子书标准,可以自由地在各种平台上阅读,如电脑、平板电脑、智能手机等。使用epub格式的好处是,它可以根据设备的屏幕尺寸和用户的设置自动调整页面布局和字体大小,提供更好的阅读体验。 这本教程的目标是帮助读者从零开始学习Pandas,并逐步深入了解其功能和用法。它提供了丰富的示例代码和实践演练,以帮助读者掌握Pandas的各种技术和技巧。教程涵盖了Pandas的基本数据结构,如Series和DataFrame,以及它们的索引、切片、过滤、排序等操作。此外,还介绍了Pandas的数据清洗、处理缺失值、数据合并、分组聚合等高级技术。 这本教程的中文版本使更多母语为中文的读者能够更轻松地学习和理解Pandas的概念和功能。epub格式的电子书具有良好的可读性和易于导航的特点,读者可以根据自己的需求和节奏进行学习,随时随地获取所需的知识。 总之,pandas-official-tut-zh epub是一本Pandas官方教程的中文电子书,提供了全面且易于理解的Pandas学习资源,可帮助读者入门并熟练使用该库。无论是初学者还是有经验的数据科学家,都可以从中受益,并将其应用于实际的数据分析项目中。 ### 回答2: pandas-official-tut-zh epub是一本关于pandas库的官方指南的电子书。Pandas是一个强大的数据分析工具,它使用Python编程语言开发。这本电子书提供了从基础概念到高级用法的全面介绍,将帮助读者掌握该库的各种功能和技巧。 该电子书以易于理解和直观的方式解释了pandas库的核心概念,如数据结构、索引和选择、数据聚合和生成等。读者可以通过电子书学习如何使用pandas来处理、清洗和分析各种类型的数据,包括结构化数据、时间序列数据和文本数据。 电子书的内容结构清晰,各章节之间有明确的连贯性,使读者可以系统地学习和理解pandas库的功能和用法。除了基本的数据操作,该电子书还介绍了一些高级特性,如数据合并、重塑和透视等,以及与其他Python工具库的集成。 pandas-official-tut-zh epub不仅提供了理论知识,还包含了丰富的实例代码和可运行的示例,读者可以通过这些实例更深入地理解和运用pandas库。此外,该电子书还提供了一些实际的案例研究,展示了pandas在真实世界中的应用。 总之,pandas-official-tut-zh epub是一本非常有价值的电子书,适合对数据处理和分析感兴趣的读者。无论是初学者还是有一定经验的开发者,都可以从该电子书中获得关于pandas库的全面指导和实用技巧。 ### 回答3: pandas-official-tut-zh epub是一个关于Python数据分析Pandas的中文官方教程的电子书文件。Pandas是一个强大的数据处理和分析工具,可用于处理和操作大型数据集。 首先,这本电子书是官方教程,意味着内容是由Pandas的开发团队编写的,可以保证信息的准确性和可靠性。它提供了详细的指导和示例,帮助读者了解Pandas的基本功能和高级技术。 这本教程以epub格式提供,这意味着它可以在各种电子设备上进行阅读,如电脑、平板电脑和智能手机。由于epub格式具有自适应屏幕大小和排版的优势,因此读者可以在任何设备上获得良好的阅读体验。 该教程分为多个章节,从介绍Pandas的基本概念和数据结构开始,逐步深入讲解Pandas的应用和高级功能。它涵盖了数据清洗、转换、聚合、合并等方面的常见任务,以及时间序列和数据可视化等更高级的主题。 读者可以通过学习这本教程来掌握Pandas的核心概念和操作技巧,从而更有效地进行数据分析和处理。这对于数据科学家、数据分析师和Python开发者来说都是非常有价值的资源。 总而言之,pandas-official-tut-zh epub是一本官方编写的关于Python数据分析Pandas的中文教程电子书,为读者提供了全面而系统的学习资源,帮助他们掌握Pandas的各种功能和技术。无论是初学者还是有经验的用户都可以从中受益,并且它的epub格式使得阅读更加方便和灵活。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值