pandas打印全部列_python——pandas练习题1-5

练习1-开始了解你的数据

探索Chipotle快餐数据

相应数据集:chipotle.tsv

import pandas as pd
chipo=pd.read_csv("exercise_data/chipotle.tsv",sep='t')
chipo.head(5)

aea01c9a03a69e62a4dbde99c917e086.png
chipo.shape[0]  #查看有多少行

4622

chipo.shape[1]  #查看有多少列

5

chipo.columns  #打印所有列名

Index(['order_id', 'quantity', 'item_name', 'choice_description',
       'item_price'],
      dtype='object')

chipo.index #打印索引

RangeIndex(start=0, stop=4622, step=1)
c=chipo[['item_name','quantity']].groupby(['item_name'],as_index=False).agg({'quantity':sum})
c.sort_values(['quantity'],ascending=False,inplace=True)
c.head(5)
#被下单数最多商品(item)是什么?

bdcfdf03139368379713df5b16c56780.png
chipo['item_name'].nunique()
#在item_name这一列中,一共有多少种商品被下单?

5

chipo['choice_description'].value_counts().head()
#在choice_description中,下单次数最多的商品是什么?

614ea2e8de79ac2c0eaa86c9d7dcb379.png
chipo['quantity'].sum()
#一共有多少商品被下单?

4972

lambda函数,apply和map区别

dollarizer = lambda x: float(x[1:-1])   
#x为item_price这列组成的数组,对其切片,取第二个(下标为1)到最后一个数,即把美元符号去掉
chipo['item_price'] = chipo['item_price'].apply(dollarizer)
#将item_price转换为浮点数

bfa9e183457fb15cd25889a98c0fc124.png
chipo['revenue']=chipo['quantity']*chipo['item_price']
total=round(chipo['revenue'].sum(),2)
total
#在该数据集对应的时期内,收入(revenue)是多少

39237.02
chipo['order_id'].nunique()
#在该数据集对应的时期内,一共有多少订单?

1834

先分组,再求和,再求平均

c=round(chipo[['order_id','revenue']].groupby(['order_id']).agg({'revenue':sum})['revenue'].mean(),2)
c
#每一单(order)对应的平均总价是多少?

21.39

练习2-数据过滤与排序

探索2012欧洲杯数据

相应数据集:Euro2012_stats.csv

import pandas as pd
euro=pd.read_csv("Euro2012_stats.csv")
euro.head()

f84c07b3e39f0fe7338e7ca612a612e0.png
#只选取 Goals 这一列
euro['Goals']

0      4
1      4
2      4
3      5
4      3
5     10
6      5
7      6
8      2
9      2
10     6
11     1
12     5
13    12
14     5
15     2
Name: Goals, dtype: int64
#有多少球队参与了2012欧洲杯?
euro.shape[0]

16

#该数据集中一共有多少列(columns)?
euro.shape[1]

35

#将数据集中的列Team, Yellow Cards和Red Cards单独存为一个名叫discipline的数据框
discipline=euro[['Team','Yellow Cards','Red Cards']]
discipline.head()

8f98ae0a5dd660cd4c75008175063f37.png
#对数据框discipline按照先Red Cards再Yellow Cards进行排序
discipline.sort_values(['Red Cards','Yellow Cards'],ascending=False)

6bcac6266b8f45b8a9a4c05d2e2be778.png
#计算每个球队拿到的黄牌数的平均值
round(discipline['Yellow Cards'].mean())

7

#找到进球数Goals超过6的球队数据
euro[euro['Goals']>6]

a19447d6b328372116d842205165e7d1.png
#选取以字母G开头的球队数据
euro[euro['Team'].str.startswith('G')]

aaa02685200812b76adf6871c6b3071d.png
#选取前7列   
euro.iloc[:,0:7]   #切片

ac5587cabc3cb5d473ab87e7e4cb8a39.png

按行号列号切片

#选取除了最后3列之外的全部列
euro.iloc[:,0:-3]

28b90fd0d3879e73bf5d22ab218f4cb2.png

按列名切片

#找到英格兰(England)、意大利(Italy)和俄罗斯(Russia)的射正率(Shooting Accuracy)
euro.loc[euro.Team.isin(['England','Italy','Russia']),['Team','Shooting Accuracy']]

95071d8a90243a459008ef91a9dd4c8c.png

练习3-数据分组

探索酒类消费数据

相应数据集:drinks.csv

import pandas as pd
drinks=pd.read_csv(r"/Users/a2016/exercise_data/drinks.csv")
drinks.head()

2f5a72523bd23b76e6799447fc6cca8b.png
#哪个大陆(continent)平均消耗的啤酒(beer)更多?
drinks.groupby(['continent'])['beer_servings'].mean()

02ce6978c2aadbc6a577fe4fba807dbc.png
#打印出每个大陆(continent)的红酒消耗(wine_servings)的描述性统计值
drinks.groupby(['continent'])['wine_servings'].describe()

a02f188d74067801db408224b4b12fab.png
#打印出每个大陆每种酒类别的消耗平均值
drinks.groupby(['continent']).mean()

eaa460686bd1596ed84b7b1497b3e7dd.png

求中位数 median()

#打印出每个大陆每种酒类别的消耗中位数
drinks.groupby(['continent']).median()

1289bd6ab7749a28793222a4fff0bd4b.png
#打印出每个大陆对spirit饮品消耗的平均值,最大值和最小值
drinks.groupby(['continent'])['spirit_servings'].agg(['mean','max','min'])

c1597a44ccfff04c353330c42b1d2bee.png

练习4-Apply函数

探索1960-2014美国犯罪数据

相应数据集:US_Crime_Rates_1960_2014.csv

import pandas as pd
US=pd.read_csv(r"/Users/a2016/exercise_data/US_Crime_Rates_1960_2014.csv")
US.head()

91a1144655a51ddaabf0372a172f2626.png
#每一列(column)的数据类型是什么样的?
US.dtypes

Year                  int64
Population            int64
Total                 int64
Violent               int64
Property              int64
Murder                int64
Forcible_Rape         int64
Robbery               int64
Aggravated_assault    int64
Burglary              int64
Larceny_Theft         int64
Vehicle_Theft         int64
dtype: object

注意到Year的数据类型为int64,但是pandas有一个不同的数据类型去处理时间序列(time series),将year的数据类型更改。

#将Year的数据类型转换为 datetime64
US['Year']=pd.to_datetime(US['Year'],format='%Y')
US.dtypes 

Year                  datetime64[ns]
Population                     int64
Total                          int64
Violent                        int64
Property                       int64
Murder                         int64
Forcible_Rape                  int64
Robbery                        int64
Aggravated_assault             int64
Burglary                       int64
Larceny_Theft                  int64
Vehicle_Theft                  int64
dtype: object
#将列Year设置为数据框的索引
US = US.set_index('Year', drop = True)
US.head()

a3b7df6ba04d693fe522c573a094af9d.png
#删除名为Total的列
del US['Total']
US.head()

902c34ebee4a7e84ae96d01a460776e4.png
#日期汇总数据,将数据以10AS十年聚合日期第一天开始的形式进行聚合 索引
US.resample('10AS').sum()

36d4013f11b618e1c84b8146e114acc8.png
#按照Year对数据框进行分组并求和

***注意Population这一列,若直接对其求和,是不正确的***

resample 的介绍

https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.resample.html​pandas.pydata.org
# 用resample去得到“Population”列的每十年中的最大值
population = US['Population'].resample('10AS').max()
population

Year
1960-01-01    201385000
1970-01-01    220099000
1980-01-01    248239000
1990-01-01    272690813
2000-01-01    307006550
2010-01-01    318857056
Freq: 10AS-JAN, Name: Population, dtype: int64
#让每十年中的最大值代替population这一列
US1['Population']=population
US1

ffdd2b9a91b65b7e3ba52fc40da5bb4a.png
#何时是美国历史上生存最危险的年代?
US.idxmax(0)

0110c17cf37486d14b0a07426ce0021a.png

练习5-合并

探索虚拟姓名数据

相应数据集:练习自定义的数据集

import pandas as pd
import numpy as np
# 运行以下代码
raw_data_1 = {
        'subject_id': ['1', '2', '3', '4', '5'],
        'first_name': ['Alex', 'Amy', 'Allen', 'Alice', 'Ayoung'], 
        'last_name': ['Anderson', 'Ackerman', 'Ali', 'Aoni', 'Atiches']}

raw_data_2 = {
        'subject_id': ['4', '5', '6', '7', '8'],
        'first_name': ['Billy', 'Brian', 'Bran', 'Bryce', 'Betty'], 
        'last_name': ['Bonder', 'Black', 'Balwner', 'Brice', 'Btisan']}

raw_data_3 = {
        'subject_id': ['1', '2', '3', '4', '5', '7', '8', '9', '10', '11'],
        'test_id': [51, 15, 15, 61, 16, 14, 15, 1, 61, 16]}

# 运行以下代码
data1 = pd.DataFrame(raw_data_1, columns = ['subject_id', 'first_name', 'last_name'])
data2 = pd.DataFrame(raw_data_2, columns = ['subject_id', 'first_name', 'last_name'])
data3 = pd.DataFrame(raw_data_3, columns = ['subject_id','test_id'])

纵向合并两个表,用concat。前提是两个表的列名对应

#将data1和data2两个数据框纵向合并,命名为all_data
all_data=pd.concat([data1,data2])
all_data

f2a5e4374562fe560fd4d432102cf413.png
#将data1和data2两个数据框横向合并,命名为all_data_col
all_data_col=pd.concat([data1,data2],axis=1)
all_data_col

48f0a09884693e3d630d6bf598608a3d.png
#按照subject_id的值对all_data和data3作合并
pd.merge(all_data,data3,on='subject_id')

ec5c9d5cbb131467400ff3dba0827ac0.png
【python】详解pandas库的pd.merge函数_brucewong0516的博客-CSDN博客_pd.merge​blog.csdn.net
178b2666b83a687180fa361ef856146c.png
#对data1和data2按照subject_id作连接
pd.merge(data1,data2,on='subject_id',how='inner')

425fc0461ee8c9497c853ef7aac13cd7.png
#找到 data1 和 data2 合并之后的所有匹配结果
pd.merge(data1,data2,on='subject_id',how='outer')

c0a7ec830be50b647e9f851458db3993.png
  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值