数据分析-pandas

 案例:实战     七周成为数据分析师

pandas 基本使用:

#创建:
data=pd.Series(np.arange(10),index=list('abcdefghih'))
'''
a    0
b    1
c    2
d    3
e    4
f    5
g    6
h    7
i    8
h    9
dtype: int32
'''

 

Series缺失数据:
缺失数据:使用NaN(Not a Number)来表示缺失数据。其值等于np.nan。内置的None值也会被当做NaN处理。

处理缺失数据的相关方法:

  1. isnull() 返回布尔数组,缺失值对应为True;等同于NumPy中的isnan()
  2. notnull() 返回布尔数组,缺失值对应为False
  3. dropna() 过滤掉值为NaN的行
  4. fillna() 填充缺失数据
data=pd.Series([33, np.nan, 32, np.nan], index=['a','b','c','d'])
data.fillna(data.mean())

DataFrame是一个表格型的数据结构(二维数据结构),含有一组有序的列。DataFrame可以被看做是由Series组成的字典,并且共用一个索引。

pd.DataFrame({'one': [1,2,3,4,], 'two': [4,3,2,1]})
"""
    one two
0   1   4
1   2   3
2   3   2
3   4   1
"""

 #常用命令:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
 
---------------numpy-----------------------
arr = np.array([1,2,3], dtype=np.float64)
np.zeros((3,6))  np.empty((2,3,2)) np.arange(15)
arr.dtype arr.ndim arr.shape
arr.astype(np.int32) #np.float64 np.string_ np.unicode_
arr * arr arr - arr 1/arr
arr= np.arange(32).reshape((8,4))
arr[1:3, : ]  #正常切片
arr[[1,2,3]]  #花式索引
arr.T   arr.transpose((...))   arr.swapaxes(...) #转置
arr.dot #矩阵内积
np.sqrt(arr)   np.exp(arr)    randn(8)#正态分布值   np.maximum(x,y)
np.where(cond, xarr, yarr)  #当cond为真,取xarr,否则取yarr
arr.mean()  arr.mean(axis=1)   #算术平均数
arr.sum()   arr.std()  arr.var()   #和、标准差、方差
arr.min()   arr.max()   #最小值、最大值
arr.argmin()   arr.argmax()    #最小索引、最大索引
arr.cumsum()    arr.cumprod()   #所有元素的累计和、累计积
arr.all()   arr.any()   # 检查数组中是否全为真、部分为真
arr.sort()   arr.sort(1)   #排序、1轴向上排序
arr.unique()   #去重
np.in1d(arr1, arr2)  #arr1的值是否在arr2中
np.load() np.loadtxt() np.save() np.savez() #读取、保存文件
np.concatenate([arr, arr], axis=1)  #连接两个arr,按行的方向
 
 
---------------pandas-----------------------
ser = Series()     ser = Series([...], index=[...])  #一维数组, 字典可以直接转化为series
ser.values    ser.index    ser.reindex([...], fill_value=0)  #数组的值、数组的索引、重新定义索引
ser.isnull()   pd.isnull(ser)   pd.notnull(ser)   #检测缺失数据
ser.name=       ser.index.name=    #ser本身的名字、ser索引的名字
ser.drop('x') #丢弃索引x对应的值
ser +ser  #算术运算
ser.sort_index()   ser.order()     #按索引排序、按值排序
df = DataFrame(data, columns=[...], index=[...]) #表结构的数据结构,既有行索引又有列索引
df.ix['x']  #索引为x的值    对于series,直接使用ser['x']
del df['ly']  #用del删除第ly列
df.T    #转置
df.index.name df.columns.name df.values
df.drop([...])
df + df   df1.add(df2, fill_vaule=0) #算术运算
df -ser   #df与ser的算术运算
f=lambda x: x.max()-x.min()   df.apply(f)
df.sort_index(axis=1, ascending=False)   #按行索引排序
df.sort_index(by=['a','b'])   #按a、b列索引排序
ser.rank()   df.rank(axis=1)  #排序,增设一个排名值
df.sum()   df.sum(axis=1)   #按列、按行求和
df.mean(axis=1, skipna=False)   #求各行的平均值,考虑na的存在
df.idxmax()   #返回最大值的索引
df.cumsum()   #累计求和
df.describe()  ser.describe()   #返回count mean std min max等值
ser.unique()  #去重
ser.value_counts()   df.value_counts()  #返回一个series,其索引为唯一值,值为频率
ser.isin(['x', 'y'])  #判断ser的值是否为x,y,得到布尔值
ser.dropna() ser.isnull() ser.notnull() ser.fillna(0)  #处理缺失数据,df相同
df.unstack()   #行列索引和值互换  df.unstack().stack()
df.swaplevel('key1','key2')   #接受两个级别编号或名称,并互换
df.sortlevel(1) #根据级别1进行排序,df的行、列索引可以有两级
df.set_index(['c','d'], drop=False)    #将c、d两列转换为行,因drop为false,在列中仍保留c,d
read_csv   read_table   read_fwf    #读取文件分隔符为逗号、分隔符为制表符('\t')、无分隔符(固定列宽)
pd.read_csv('...', nrows=5) #读取文件前5行
pd.read_csv('...', chunksize=1000) #按块读取,避免过大的文件占用内存
pd.load() #pd也有load方法,用来读取二进制文件
pd.ExcelFile('...xls').parse('Sheet1')  # 读取excel文件中的sheet1
df.to_csv('...csv', sep='|', index=False, header=False) #将数据写入csv文件,以|为分隔符,默认以,为分隔符, 禁用列、行的标签
pd.merge(df1, df2, on='key', suffixes=('_left', '_right')) #合并两个数据集,类似数据库的inner join, 以二者共有的key列作为键,suffixes将两个key分别命名为key_left、key_right
pd.merge(df1, df2, left_on='lkey', right_on='rkey') #合并,类似数据库的inner join, 但二者没有同样的列名,分别指出,作为合并的参照
pd.merge(df1, df2, how='outer') #合并,但是是outer join;how='left'是笛卡尔积,how='inner'是...;还可以对多个键进行合并
df1.join(df2, on='key', how='outer')  #也是合并
pd.concat([ser1, ser2, ser3], axis=1) #连接三个序列,按行的方向
ser1.combine_first(ser2)   df1.combine_first(df2) #把2合并到1上,并对齐
df.stack() df.unstack()  #列旋转为行、行旋转为列
df.pivot()
df.duplicated()   df.drop_duplicates() #判断是否为重复数据、删除重复数据
df[''].map(lambda x: abs(x)) #将函数映射到df的指定列
ser.replace(-999, np.nan) #将-999全部替换为nan
df.rename(index={}, columns={}, inplace=True) #修改索引,inplace为真表示就地修改数据集
pd.cut(ser, bins)  #根据面元bin判断ser的各个数据属于哪一个区段,有labels、levels属性
df[(np.abs(df)>3).any(1)] #输出含有“超过3或-3的值”的行
permutation  take    #用来进行随机重排序
pd.get_dummies(df['key'], prefix='key')  #给df的所有列索引加前缀key
df[...].str.contains()  df[...].str.findall(pattern, flags=re.IGNORECASE)  df[...].str.match(pattern, flags=...)    df[...].str.get()  #矢量化的字符串函数
 
----绘图
ser.plot() df.plot() #pandas的绘图工具,有参数label, ax, style, alpha, kind, logy, use_index, rot, xticks, xlim, grid等,详见page257
kind='kde' #密度图
kind='bar' kind='barh' #垂直柱状图、水平柱状图,stacked=True为堆积图
ser.hist(bins=50) #直方图
plt.scatter(x,y) #绘制x,y组成的散点图
pd.scatter_matrix(df, diagonal='kde', color='k', alpha='0.3')  #将df各列分别组合绘制散点图
 
----聚合分组
groupby() 默认在axis=0轴上分组,也可以在1组上分组;可以用for进行分组迭代
df.groupby(df['key1']) #根据key1对df进行分组
df['key2'].groupby(df['key1'])  #根据key1对key2列进行分组
df['key3'].groupby(df['key1'], df['key2'])  #先根据key1、再根据key2对key3列进行分组
df['key2'].groupby(df['key1']).size() #size()返回一个含有分组大小的series
df.groupby(df['key1'])['data1']  等价于 df['data1'].groupby(df['key1'])
df.groupby(df['key1'])[['data1']]  等价于  df[['data1']].groupby(df['key1'])
df.groupby(mapping, axis=1)  ser(mapping) #定义mapping字典,根据字典的分组来进行分组
df.groupby(len) #通过函数来进行分组,如根据len函数
df.groupby(level='...', axis=1)  #根据索引级别来分组
df.groupby([], as_index=False)   #禁用索引,返回无索引形式的数据
df.groupby(...).agg(['mean', 'std'])   #一次使用多个聚合函数时,用agg方法
df.groupby(...).transform(np.mean)   #transform()可以将其内的函数用于各个分组
df.groupby().apply()  #apply方法会将待处理的对象拆分成多个片段,然后对各片段调用传入的函数,最后尝试将各片段组合到一起
 
----透视交叉
df.pivot_table(['',''], rows=['',''], cols='', margins=True)  #margins为真时会加一列all
pd.crosstab(df.col1, df.col2, margins=True) #margins作用同上
 
 
---------------matplotlib---------------
fig=plt.figure() #图像所在的基对象
ax=fig.add_subplot(2,2,1)  #2*2的图像,当前选中第1个
fig, axes = plt.subplots(nrows, nclos, sharex, sharey)  #创建图像,指定行、列、共享x轴刻度、共享y轴刻度
plt.subplots_adjust(left=None, bottom=None, right=None, top=None, wspace=None, hspace=None)
#调整subplot之间的距离,wspace、hspace用来控制宽度、高度百分比
ax.plot(x, y, linestyle='--', color='g')   #依据x,y坐标画图,设置线型、颜色
ax.set_xticks([...]) ax.set_xticklabels([...]) #设置x轴刻度
ax.set_xlabel('...') #设置x轴名称
ax.set_title('....') #设置图名
ax.legend(loc='best') #设置图例, loc指定将图例放在合适的位置
ax.text(x,y, 'hello', family='monospace', fontsize=10) #将注释hello放在x,y处,字体大小为10
ax.add_patch() #在图中添加块
plt.savefig('...png', dpi=400, bbox_inches='tight') #保存图片,dpi为分辨率,bbox=tight表示将裁减空白部分
 
 
 
 
------------------------------------------
from mpl_toolkits.basemap import Basemap
import matplotlib.pyplot as plt
#可以用来绘制地图
 
 
-----------------时间序列--------------------------
pd.to_datetime(datestrs)    #将字符串型日期解析为日期格式
pd.date_range('1/1/2000', periods=1000)    #生成时间序列
ts.resample('D', how='mean')   #采样,将时间序列转换成以每天为固定频率的, 并计算均值;how='ohlc'是股票四个指数;
#重采样会聚合,即将短频率(日)变成长频率(月),对应的值叠加;
#升采样会插值,即将长频率变为短频率,中间产生新值
ts.shift(2, freq='D')   ts.shift(-2, freq='D') #后移、前移2天
now+Day() now+MonthEnd()
import pytz   pytz.timezone('US/Eastern')   #时区操作,需要安装pytz
pd.Period('2010', freq='A-DEC')   #period表示时间区间,叫做时期
pd.PeriodIndex    #时期索引
ts.to_period('M')   #时间转换为时期
pd.rolling_mean(...)    pd.rolling_std(...)   #移动窗口函数-平均值、标准差

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

来源         2

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Python是一种功能强大的编程语言,可以用于各种数据分析任务。而在Python的数据分析工具库中,pandas是最受欢迎和广泛使用的工具之一。 Pandas提供了用于处理和分析数据的高级数据结构和函数。其最常用的数据结构是DataFrame,类似于Excel中的表格。通过Pandas,我们可以读取Excel文件,并将其转换为DataFrame对象进行进一步处理。 使用Pandas进行Excel数据分析的第一步是读取Excel文件。Pandas提供了read_excel函数,可以方便地读取Excel文件并转换为DataFrame对象。我们可以指定要读取的工作表、要保留的列、要跳过的行等。 一旦我们将Excel文件读取为DataFrame对象,我们可以使用Pandas提供的丰富函数和操作对数据进行各种处理和分析。例如,我们可以使用head()函数查看前几行数据,使用describe()函数获取数据的统计摘要,使用mean()函数计算平均值,使用groupby()函数对数据进行分组等等。 除了数据处理和分析,Pandas还提供了各种工具来处理缺失值和数据清洗。我们可以使用dropna()函数删除含有缺失值的行或列,使用fillna()函数将缺失值填充为指定的值,使用replace()函数替换数据中的特定值等。 在数据分析完成后,我们可以使用to_excel函数将DataFrame对象保存为Excel文件。在保存时,我们可以指定要保存的工作表、保存的位置和文件名等。 总之,Pandas是一个非常强大和灵活的库,可以使Python在处理Excel数据时变得更加简单和高效。无论是数据的读取、处理、分析还是保存,Pandas都提供了丰富而简洁的函数和操作,使得数据分析变得更加容易。 ### 回答2: Pandas是一个功能强大的数据分析工具,可以轻松地处理和分析各种数据。同时,Pandas还提供了许多用于读取、处理和写入Excel文件的功能,让我们能够更方便地从Excel文件中提取和处理数据。 在使用Pandas进行Excel数据分析时,我们首先需要使用`pandas.read_excel()`函数读取Excel文件,并将其存储为一个PandasDataFrame对象。这样可以轻松地使用Pandas的各种数据处理和分析功能。 Pandas提供了一系列的函数来处理Excel数据,比如对数据进行过滤、排序、计算统计量等。我们可以使用`head()`函数快速查看数据的前几行,使用`describe()`函数生成数据的统计概要信息,使用`sort_values()`函数对数据进行排序等。 除此之外,Pandas还提供了一些方便的函数来进行Excel数据的写入。我们可以使用`to_excel()`函数将DataFrame对象写入Excel文件,并通过参数来设置写入的Sheet名称、行列标签等。 除了基本的读写操作,Pandas还提供了丰富的数据转换和清洗功能,如数据合并、去重、填充空值等等。这些功能可以帮助我们更好地理解和分析Excel中的数据。 总而言之,Pandas是一个非常方便和强大的数据分析工具,可以让我们轻松地处理和分析Excel数据。通过Pandas,我们可以更加快速和高效地提取、清洗和分析数据,将Excel文件作为数据分析的重要来源之一。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值