第一章 pandas基础-学习笔记

第一章 pandas基础

# 首先要导入对应的模块
import pandas as pd
import numpy as np

一、文件的读取和写入

1、常见文件类型读取方法

读取之前先了解常用的对应参数:
1.header=None:表示第一行不作为列名;
2.index_col:表示把某一列或几列作为索引;
3.usecols:表示读取列的集合,默认读取所有的列;
4.parse_dates:表示需要转化为时间的列;
5.nrows:表示读取的数据行数。

以下格式读取都适用,根据你的业务需求读取

①、读取Excel格式

# 引号里面是对应的文件路径,如果路径有中文,必须加上r
# 使用了第一行不作为列名,列明字段就变了,后续对应的字段就不能同时,可看csv、txt读取后续操作
# eg:header=None适用于原表没有表头的情况
df_excel = pd.read_excel('data/my_excel.xlsx',header=None)
df_excel
01234
0col1col2col3col4col5
12a1.4apple2020/1/1
23b3.4banana2020/1/2
36c2.5orange2020/1/5
45d3.2lemon2020/1/7

②、读取csv格式

# 适用于宽表中只取所需的几列形成新的表进行后续操作
df_csv = pd.read_csv('data/my_csv.csv',index_col=['col1', 'col2'],usecols=['col1','col2'])
df_csv
col1col2
2a
3b
6c
5d

③、读取txt格式

# 转化成时间列可做时序分析等,nrows作用于看表结构,跟pd_txt.head(2)异曲同工
df_txt = pd.read_table('data/my_table.txt',parse_dates=['col4'],nrows=2)
df_txt
col1col2col3col4
02a1.4apple 2020/1/1
13b3.4banana 2020/1/2
# 如果碰上txt文件有分隔符的时候,用分割参数sep
#一般文件路径包含中文时,需要设置engine = ‘python’
pd.read_table('data/my_table_special_sep.txt')
col1 |||| col2
0TS |||| This is an apple.
1GQ |||| My name is Bob.
2WT |||| Well done!
3PT |||| May I help you?
pd.read_table('data/my_table_special_sep.txt',sep='\|\|\|\|',engine='python')
# sep参数使用的是正则表达式,需要转义字符\将|识别
col1col2
0TSThis is an apple.
1GQMy name is Bob.
2WTWell done!
3PTMay I help you?

2、常见数据写入方法

df_excel.to_excel('data/my_excel_saved.xlsx',index = False)
df_csv.to_csv('data/my_csv_saved.csv', index=False)
# index = False 去除不必要的索引值,路径也可以根据自己需要保存在对应的位置
df_csv.to_csv('data/my_csv_saved.txt',sep='\t', index=False)
#txt 存入也是用to_csv,只是需要分隔符,这个可自定义,这里是用制表符分割

为什么要转化markdown语言,主要是为了方便保存,且易于转成其他格式,比如PDF,也能方便出版打印和交流传播
to_markdown: 表格转换为markdown语言
to_latex:可表格转换为to_latex语言
没有安装安装tabulate包,要先pip install tabulate i- https://pypi.tuna.tsinghua.edu.cn/simple

print(df_csv.to_markdown())
|:---------|
| (2, 'a') |
| (3, 'b') |
| (6, 'c') |
| (5, 'd') |
print(df_csv.to_latex())
\begin{tabular}{ll}
\toprule
  &   \\
col1 & col2 \\
\midrule
2 & a \\
3 & b \\
6 & c \\
5 & d \\
\bottomrule
\end{tabular}

二、基本数据结构

pandas有两种基本数据存储结构:

①存储一维values的Series

②存储二维values的DataFrame

这两种结构上定义了很多的属性和方法。

1、Series

Series组成部分:
①序列的值data(默认为空,也可以自定义)
②索引index
③存储类型dtype
④序列的名字 name

# 创建一个series
s = pd.Series(data = [100, 'a', {'dic1':5}],
              index = pd.Index(['id1', 20, 'third'], name='my_idx'),
              dtype = 'object',
              name = 'my_name')
s
my_idx
id1              100
20                 a
third    {'dic1': 5}
Name: my_name, dtype: object

【NOTE】object类型
object代表了一种混合类型,可存储整数、字符串、Python字典数据结构等。
此外,pandas是把纯字符串序列也默认认为是一种object类型的序列,但它也可以用string类型存储。

对于这些属性,可以通过 . 的方式来获取:

s.values
array([100, 'a', {'dic1': 5}], dtype=object)
s.index
Index(['id1', 20, 'third'], dtype='object', name='my_idx')
s.dtype
dtype('O')
s.name
'my_name'
s.shape # 获取序列长度
(3,)

2. DataFrame

DataFrame的结构:在Series的基础上增加了列索引

data = [[1, 'a', 1.2], [2, 'b', 2.2], [3, 'c', 3.2]]
df = pd.DataFrame(data = data,
                  index = ['row_%d'%i for i in range(3)],
                  columns=['col_0', 'col_1', 'col_2'])
df
col_0col_1col_2
row_01a1.2
row_12b2.2
row_23c3.2

常用方法一般会从列索引名到数据的映射来构造数据框,同时再加上行索引

df = pd.DataFrame(data = {'col_0': [1,2,3],
                          'col_1':list('abc'),
                          'col_2': [1.2, 2.2, 3.2]},
                  index = ['row_%d'%i for i in range(3)])
df
col_0col_1col_2
row_01a1.2
row_12b2.2
row_23c3.2

由于这种映射关系
用[col_name]与[col_list]来取出相应的列→Series
用[col_name]与[col_list]取多个列→DataFrame

df['col_0']
row_0    1
row_1    2
row_2    3
Name: col_0, dtype: int64
df[['col_0','col_1']]
col_0col_1
row_01a
row_12b
row_23c

与Series类似,在数据框中同样可以取出相应的属性:

df.values
array([[1, 'a', 1.2],
       [2, 'b', 2.2],
       [3, 'c', 3.2]], dtype=object)
df.index
Index(['row_0', 'row_1', 'row_2'], dtype='object')
df.columns
Index(['col_0', 'col_1', 'col_2'], dtype='object')
df.shape
(3, 3)

通过.T可以把DataFrame进行转置:

df.T
row_0row_1row_2
col_0123
col_1abc
col_21.22.23.2

三、常用基本函数

df = pd.read_csv('data/learn_pandas.csv')
df.columns
Index(['School', 'Grade', 'Name', 'Gender', 'Height', 'Weight', 'Transfer',
       'Test_Number', 'Test_Date', 'Time_Record'],
      dtype='object')

上述列名依次代表学校、年级、姓名、性别、身高、体重、是否为转系生、体测场次、测试时间、1000米成绩

# 如果只想要取前7列,可以用切片
df = df[df.columns[:7]]

1、汇总函数

head, tail函数分别表示返回表或者序列的前n行和后n行,其中n默认为5:

df.head(3)
SchoolGradeNameGenderHeightWeightTransfer
0Shanghai Jiao Tong UniversityFreshmanGaopeng YangFemale158.946.0N
1Peking UniversityFreshmanChangqiang YouMale166.570.0N
2Shanghai Jiao Tong UniversitySeniorMei SunMale188.989.0N
df.tail(3)
SchoolGradeNameGenderHeightWeightTransfer
197Shanghai Jiao Tong UniversitySeniorChengqiang ChuFemale153.945.0N
198Shanghai Jiao Tong UniversitySeniorChengmei ShenMale175.371.0N
199Tsinghua UniversitySophomoreChunpeng LvMale155.751.0N

info, describe分别返回表的信息概况和表中数值列对应的主要统计量 :
如果想要对一份数据集进行全面且有效的观察,特别是在列较多的情况下,推荐使用pandas-profiling包
数据清洗的时候可以看出哪些列是脏数据,需要清洗

df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 200 entries, 0 to 199
Data columns (total 7 columns):
 #   Column    Non-Null Count  Dtype  
---  ------    --------------  -----  
 0   School    200 non-null    object 
 1   Grade     200 non-null    object 
 2   Name      200 non-null    object 
 3   Gender    200 non-null    object 
 4   Height    183 non-null    float64
 5   Weight    189 non-null    float64
 6   Transfer  188 non-null    object 
dtypes: float64(2), object(5)
memory usage: 11.1+ KB
df.describe()
HeightWeight
count183.000000189.000000
mean163.21803355.015873
std8.60887912.824294
min145.40000034.000000
25%157.15000046.000000
50%161.90000051.000000
75%167.50000065.000000
max193.90000089.000000

2. 特征统计函数

在Series和DataFrame上定义了许多统计函数:
sum, mean, median, var, std, max, min等

df_demo = df[['Height','Weight']]
df_demo.mean()
Height    163.218033
Weight     55.015873
dtype: float64
df_demo.max()
Height    193.9
Weight     89.0
dtype: float64

quantile, count, idxmax这三个函数,它们分别返回的是分位数、非缺失值个数、最大值对应的索引

df_demo.quantile(0.75)# 四分之三分位数
Height    167.5
Weight     65.0
Name: 0.75, dtype: float64
df_demo.count()
Height    183
Weight    189
dtype: int64
df_demo.idxmax()# idxmin是最大值对应的索引
Height    193
Weight      2
dtype: int64

上面这些所有的函数,由于操作后返回的是标量,所以又称为聚合函数,它们有一个公共参数axis,默认为0代表逐列聚合,如果设置为1则表示逐行聚合:

df_demo.mean(axis=1).head()#在这个数据集上体重和身高的均值并没有意义
0    102.45
1    118.25
2    138.95
3     41.00
4    124.00
dtype: float64

3. 唯一值函数

对序列使用unique和nunique可以分别得到其唯一值组成的列表和唯一值的个数:

df['School'].unique()
array(['Shanghai Jiao Tong University', 'Peking University',
       'Fudan University', 'Tsinghua University'], dtype=object)
df['School'].nunique()
4

value_counts可以得到唯一值和其对应出现的频数:

df['School'].value_counts()
Tsinghua University              69
Shanghai Jiao Tong University    57
Fudan University                 40
Peking University                34
Name: School, dtype: int64

如果想要观察多个列组合的唯一值,可以使用drop_duplicates。

其中的关键参数是keep,默认值first表示每个组合保留第一次出现的所在行,last表示保留最后一次出现的所在行,False表示把所有重复组合所在的行剔除。

df_demo = df[['Gender','Transfer','Name']]
df_demo.drop_duplicates(['Gender', 'Transfer'])
GenderTransferName
0FemaleNGaopeng Yang
1MaleNChangqiang You
12FemaleNaNPeng You
21MaleNaNXiaopeng Shen
36MaleYXiaojuan Qin
43FemaleYGaoli Feng
df_demo.drop_duplicates(['Gender', 'Transfer'], keep='last')
GenderTransferName
147MaleNaNJuan You
150MaleYChengpeng You
169FemaleYChengquan Qin
194FemaleNaNYanmei Qian
197FemaleNChengqiang Chu
199MaleNChunpeng Lv
df_demo.drop_duplicates(['Name', 'Gender'], keep=False).head() 
# 保留只出现过一次的性别和姓名组合
GenderTransferName
0FemaleNGaopeng Yang
1MaleNChangqiang You
2MaleNMei Sun
4MaleNGaojuan You
5FemaleNXiaoli Qian
df['School'].drop_duplicates() # 在Series上也可以使用
0    Shanghai Jiao Tong University
1                Peking University
3                 Fudan University
5              Tsinghua University
Name: School, dtype: object

此外,duplicated和drop_duplicates的功能类似
但前者返回了是否为唯一值的布尔列表,其keep参数与后者一致。
其返回的序列,把重复元素设为True,否则为False。
drop_duplicates等价于把duplicated为True的对应行剔除。

df_demo.duplicated(['Gender', 'Transfer']).head()
0    False
1    False
2     True
3     True
4     True
dtype: bool
df['School'].duplicated().head() 
# 在Series上也可以使用
0    False
1    False
2     True
3    False
4     True
Name: School, dtype: bool

4. 替换函数

替换操作是针对某一个列进行的,因此下面的例子都以Series举例。
pandas中的替换函数可以归纳为三类:
映射替换、逻辑替换、数值替换
映射替换包含replace方法,在replace中,可以通过字典构造,或者传入两个列表来进行替换.

# 第一种 ,通过字典构造
df['Gender'].replace({'Female':0,'Male':1}).head()
0    0
1    1
2    1
3    0
4    1
Name: Gender, dtype: int64
# 第二种,传入两个列表来进行替换
df['Gender'].replace(['Female','Male'],[0,1]).head()
0    0
1    1
2    1
3    0
4    1
Name: Gender, dtype: int64

另外,replace还有一种特殊的方向替换,指定method参数为ffill则为用前面一个最近的未被替换的值进行替换,bfill则使用后面最近的未被替换的值进行替换。

s = pd.Series(['a', 1, 'b', 2, 1, 1, 'a'])
s
0    a
1    1
2    b
3    2
4    1
5    1
6    a
dtype: object
s.replace([1,2],method='ffill')
# 用前面一个值替换,识别到对应需要替换的值,就会取它前一个值作为替换值
0    a
1    a
2    b
3    b
4    b
5    b
6    a
dtype: object
s.replace([1, 2], method='bfill')# 同理,取后面的值作为替换值
0    a
1    b
2    b
3    a
4    a
5    a
6    a
dtype: object

【WARNING】正则替换请使用str.replace

虽然对于replace而言可以使用正则替换,但是当前版本下对于string类型的正则替换还存在bug,因此如有此需求,请选择str.replace进行替换操作。

逻辑替换也频繁被用到,常见函数:
where和mask
where函数在传入条件为False的对应行进行替换
mask在传入条件为True的对应行进行替换,当不指定替换值时,替换为缺失值。

s = pd.Series([-1, 1.2345, 100, -50])
s
0     -1.0000
1      1.2345
2    100.0000
3    -50.0000
dtype: float64
# s>0就替换为缺失值
s.where(s<0)
0    -1.0
1     NaN
2     NaN
3   -50.0
dtype: float64
# s<0就替换为缺失值
s.mask(s<0)
0         NaN
1      1.2345
2    100.0000
3         NaN
dtype: float64
# s>0,就替换成100
s.where(s<0,100)
0     -1.0
1    100.0
2    100.0
3    -50.0
dtype: float64
# s<0,就替换成-50
s.mask(s<0,-50)
0    -50.0000
1      1.2345
2    100.0000
3    -50.0000
dtype: float64

需要注意的是,mask传入的条件只需是与被调用的Series索引一致的布尔序列即可:

s_condition= pd.Series([True,False,False,True],index=s.index)
s.mask(s_condition, -50)
0    -50.0000
1      1.2345
2    100.0000
3    -50.0000
dtype: float64

数值替换包含了round, abs, clip方法
round→取整
abs→取绝对值
clip→截断

s = pd.Series([-1, 1.2345, 100, -50])
s
0     -1.0000
1      1.2345
2    100.0000
3    -50.0000
dtype: float64
s.round(2)#取整
0     -1.00
1      1.23
2    100.00
3    -50.00
dtype: float64
s.abs()#取绝对值
0      1.0000
1      1.2345
2    100.0000
3     50.0000
dtype: float64
s.clip(0, 2) 
# 前两个数分别表示上下截断边界
0    0.0000
1    1.2345
2    2.0000
3    0.0000
dtype: float64

s.clip(lower=None, upper=None, axis=None, inplace=False, *args, **kwargs)
lower : float或array_like,默认为None 最小阈值。低于此阈值的所有值都将设置为它。
upper : float或array_like,默认为None 最大阈值。高于此阈值的所有值都将设置为它。
axis : int或string轴名称,可选沿给定轴将对象与下部和上部对齐。
inplace : 布尔值,默认为False是否对数据执行操作。

【练一练】
在 clip 中,超过边界的只能截断为边界值,如果要把超出边界的替换为自定义的值,应当如何做?

s.clip(0, 2).replace({0:5,2:8})
0    5.0000
1    1.2345
2    8.0000
3    5.0000
dtype: float64

5. 排序函数

一为值排序:sort_values
二为索引排序:sort_index
为了演示排序函数,先利用set_index方法把年级和姓名两列作为索引

df_demo = df[['Grade', 'Name', 'Height', 'Weight']].set_index(['Grade','Name'])
df_demo.head()
HeightWeight
GradeName
FreshmanGaopeng Yang158.946.0
Changqiang You166.570.0
SeniorMei Sun188.989.0
SophomoreXiaojuan SunNaN41.0
Gaojuan You174.074.0
# 对身高进行排序,默认参数ascending=True为升序
df_demo.sort_values('Height').head()
HeightWeight
GradeName
JuniorXiaoli Chu145.434.0
SeniorGaomei Lv147.334.0
SophomorePeng Han147.834.0
SeniorChangli Lv148.741.0
SophomoreChangjuan You150.540.0
# 从高到底,降序排列
df_demo.sort_values('Height',ascending=False).head()
HeightWeight
GradeName
SeniorXiaoqiang Qin193.979.0
Mei Sun188.989.0
Gaoli Zhao186.583.0
FreshmanQiang Han185.387.0
SeniorQiang Zheng183.987.0
#在排序中,可能会遇到多列排序的问题
#比如在体重相同的情况下,对身高进行排序,并且保持身高降序排列,体重升序排列:
df_demo.sort_values(['Weight','Height'],ascending=[True,False]).head()
HeightWeight
GradeName
SophomorePeng Han147.834.0
SeniorGaomei Lv147.334.0
JuniorXiaoli Chu145.434.0
SophomoreQiang Zhou150.536.0
FreshmanYanqiang Xu152.438.0

索引排序的用法和值排序完全一致,只不过元素的值在索引中,此时需要指定索引层的名字或者层号,用参数level表示。另外,需要注意的是字符串的排列顺序由字母顺序决定。

df_demo.sort_index(level=['Grade','Name'],ascending=[True,False]).head()
HeightWeight
GradeName
FreshmanYanquan Wang163.555.0
Yanqiang Xu152.438.0
Yanqiang Feng162.351.0
Yanpeng LvNaN65.0
Yanli Zhang165.152.0

6. apply方法

apply方法常用于DataFrame的行迭代或者列迭代。
apply的参数往往是一个以序列为输入的函数。
例如对于.mean(),使用apply可以如下地写出:

# 常见用法一
df_demo = df[['Height', 'Weight']]
def my_mean(x):
    res = x.mean()
    return res
df_demo.apply(my_mean)
Height    163.218033
Weight     55.015873
dtype: float64
# 匿名函数用法, x就指代被调用的df_demo表中逐个输入的序列
df_demo.apply(lambda x:x.mean())
Height    163.218033
Weight     55.015873
dtype: float64

若指定axis=1,那么每次传入函数的就是行元素组成的Series,其结果与之前的逐行均值结果一致。

df_demo.apply(lambda x:x.mean(),axis=1).head()# 逐行均值,有无意义看业务情景
0    102.45
1    118.25
2    138.95
3     41.00
4    124.00
dtype: float64

这里再举一个例子:mad函数返回的是一个序列中偏离该序列均值的绝对值大小的均值
例如序列1,3,7,10中,均值为5.25,每一个元素偏离的绝对值为4.25,2.25,1.75,4.75,这个偏离序列的均值为3.25。现在利用apply计算升高和体重的mad指标:

# 方法一:用apply实现mad函数,需要知道映射关系
df_demo.apply(lambda x:(x-x.mean()).abs().mean())
Height     6.707229
Weight    10.391870
dtype: float64
# 等同于直接mad函数
df_demo.mad()
Height     6.707229
Weight    10.391870
dtype: float64

【WARNING】谨慎使用apply
得益于传入自定义函数的处理,apply的自由度很高,但这是以性能为代价的。
一般而言,使用pandas的内置函数处理和apply来处理同一个任务,其速度会相差较多,因此只有在确实存在自定义需求的情境下才考虑使用apply。

四、窗口对象

pandas中有3类窗口:
滑动窗口rolling、扩张窗口expanding、指数加权窗口ewm
先讲指数加权窗口

1. 滑窗对象

要使用滑窗函数,就必须先要对一个序列使用.rolling得到滑窗对象,其最重要的参数为窗口大小window(顾名思义就是多少为一周期计算,比如7天移动平均数,windows = 7)。

# 必要步骤先roling,还需设置窗口大小,
s = pd.Series([1,2,3,4,5])
roller = s.rolling(window = 3)
roller
Rolling [window=3,center=False,axis=0]

在得到了滑窗对象后,能够使用相应的聚合函数进行计算,需要注意的是窗口包含当前行所在的元素,例如在第四个位置进行均值运算时,应当计算(2+3+4)/3,而不是(1+2+3)/3:

roller.mean()
0    NaN
1    NaN
2    2.0
3    3.0
4    4.0
dtype: float64
roller.sum()
0     NaN
1     NaN
2     6.0
3     9.0
4    12.0
dtype: float64

对于滑动相关系数或滑动协方差的计算,可以如下写出:

s2 = pd.Series([1,2,6,16,30])
roller.cov(s2)# 相关系数
0     NaN
1     NaN
2     2.5
3     7.0
4    12.0
dtype: float64
roller.corr(s2)# 协方差
0         NaN
1         NaN
2    0.944911
3    0.970725
4    0.995402
dtype: float64

此外,还支持使用apply传入自定义函数,其传入值是对应窗口的Series,例如上述的均值函数可以等效表示:

roller.apply(lambda x:x.mean())
0    NaN
1    NaN
2    2.0
3    3.0
4    4.0
dtype: float64

shift, diff, pct_change是一组类滑窗函数
它们的公共参数为periods=n,默认为1
shift→表示取向前第n个元素的值
diff→与向前第n个元素做差(与Numpy中不同,后者表示n阶差分)
pct_change→与向前第n个元素相比计算增长率。
这里的n可以为负,表示反方向的类似操作。

s = pd.Series([1,3,6,10,15])
s.shift(2)# 取向前第n个元素的值
0    NaN
1    NaN
2    1.0
3    3.0
4    6.0
dtype: float64
s.diff(3)#向前第n个元素做差
0     NaN
1     NaN
2     NaN
3     9.0
4    12.0
dtype: float64
s.pct_change()# 与向前第n个元素相比计算增长率
0         NaN
1    2.000000
2    1.000000
3    0.666667
4    0.500000
dtype: float64
s.shift(-1) # 表示反方向的类似操作
0     3.0
1     6.0
2    10.0
3    15.0
4     NaN
dtype: float64
s.diff(-2)
0   -5.0
1   -7.0
2   -9.0
3    NaN
4    NaN
dtype: float64

将其视作类滑窗函数的原因是,它们的功能可以用窗口大小为n+1的rolling方法等价代替:

# s.shift(2) 等价于下面的方法
s.rolling(3).apply(lambda x:list(x)[0]) 
0    NaN
1    NaN
2    1.0
3    3.0
4    6.0
dtype: float64
# s.diff(3)
s.rolling(4).apply(lambda x:list(x)[-1]-list(x)[0]) 
0     NaN
1     NaN
2     NaN
3     9.0
4    12.0
dtype: float64
# s.pct_change()
def my_pct(x):
     L = list(x)
     return L[-1]/L[0]-1
s.rolling(2).apply(my_pct) 
0         NaN
1    2.000000
2    1.000000
3    0.666667
4    0.500000
dtype: float64

【练一练】
rolling对象的默认窗口方向都是向前的,某些情况下用户需要向后的窗口,例如对1,2,3设定向后窗口为2的sum操作,结果为3,5,NaN,此时应该如何实现向后的滑窗操作?(提示:使用shift)

# 必要步骤先roling,还需设置窗口大小,再sum操作,再向后滑窗n为负数
s = pd.Series([1,2,3])
roller= s.rolling(window = 2)
roller.sum().shift(-1)
0    3.0
1    5.0
2    NaN
dtype: float64

2. 扩张窗口

扩张窗口又称累计窗口,可以理解为一个动态长度的窗口,其窗口的大小就是从序列开始处到具体操作的对应位置,其使用的聚合函数会作用于这些逐步扩张的窗口上。
具体地说,设序列为a1, a2, a3, a4,则其每个位置对应的窗口即[a1]、[a1, a2]、[a1, a2, a3]、[a1, a2, a3, a4]。
适用于:销售累计值,成本花费累计……

s = pd.Series([1, 3, 6, 10])
s.expanding().mean()
0    1.000000
1    2.000000
2    3.333333
3    5.000000
dtype: float64

【练一练】
cummax(前n个数依次求最大值), cumsum(累积连加), cumprod函数(累积连乘)是典型的类扩张窗口函数,请使用expanding对象依次实现它们。

s.cumsum()#累积连加
#  用expandding对象实现
# s.expanding().sum()
0     1
1     4
2    10
3    20
dtype: int64
s.cummax() #前n个数依次求最大值
#  用expandding对象实现
# s.expanding().max()
<bound method Series.cummax of 
0     1
1     3
2     6
3    10
dtype: int64>
s.cumprod()# 累积连乘
#  用expandding对象实现
# s.expanding().prod(),这里报错了('Expanding' object has no attribute 'prod'),因此不适用这个。
# 另解,我用apply方法
s.expanding().apply(lambda x:x.prod()).astype(np.int64)
# 一定转成float型,不然会报错"Cannot convert the series to class float"
<bound method Series.cumprod of
0     1
1     3
2     18
3    180
dtype: int64>
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值