Python 数据分析工具包(四)

原文:A Python Data Analyst’s Toolkit

协议:CC BY-NC-SA 4.0

七、使用 Python 库实现数据可视化

在最后一章中,我们阅读了关于 Pandas 的内容,这是一个具有各种功能的库,用于准备数据,以便为分析和可视化做好准备。可视化是一种理解数据模式、识别异常值和其他兴趣点,并将我们的发现呈现给外部受众的方法,而无需手动筛选数据。可视化还有助于我们从原始数据中收集信息,并获得难以获得的洞察力。

阅读完本章后,您将能够理解常用的绘图,理解 Matplotlib 中面向对象和有状态的方法并应用这些方法进行可视化,学习如何使用 Pandas 进行绘图,并理解如何使用 Seaborn 创建图形。

技术要求

在 Jupyter 笔记本中,键入以下内容以导入以下库。

代码:

import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt

这里, plt 是我们用来绘图的 Matplotlib 的 pyplot 模块的简称或者别名, sns 是 Seaborn 库的别名, pd 是 Pandas 的别名。

如果没有安装这些库,请转到 Anaconda 提示符并按如下方式安装它们:

pip install matplotlib
pip install seaborn
pip install pandas

外部文件

我们在本章中使用 Titanic 数据集来演示各种图。

请使用以下链接下载数据集: https://github.com/DataRepo2019/Data-files/blob/master/titanic.csv

您也可以使用以下步骤下载该数据集:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

  • 从下载的 zip 文件夹中,打开“titanic.csv”文件

常用地块

在探索性或描述性数据分析中广泛使用的一些基本图包括条形图、饼图、直方图、散点图、箱线图和热图;这些在表 7-1 中解释。

表 7-1

描述性数据分析中可视化数据的常用图

|

图表或绘图的类型

|

描述

|

形状

|
| — | — | — |
| 条形图 | 条形图使分类数据可视化,条形的宽度或高度代表每个类别的值。条形图可以垂直或水平显示。 | 外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传 |
| 柱状图 | 直方图用于可视化连续变量的分布。它将连续变量的范围划分为多个区间,并显示大部分值所在的位置。 | 外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传 |
| 箱线图 | 箱形图有助于直观地描述数据的统计特征。箱形图提供了五点汇总,图中的每条线代表所绘制数据的统计测量值(参见右图)。这五项措施是最小值第 25 个百分位数中位数(第 50 个百分位数)第 75 个百分位数最大值您在右图中看到的小圆圈/点代表异常值(或极端值)。方框两边的两条线分别代表最小值和最大值,也称为“触须”。这些须状物之外的任何点都被称为异常值。框中的中线代表中位数。箱线图通常用于连续(比率/区间)变量,尽管它也可以用于一些分类变量,如顺序变量。 | 外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传 |
| 饼图 | 饼图将变量的不同值显示为圆内的扇形。饼图与分类变量一起使用。 | 外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传 |
| 散点图 | 散点图将两个连续变量的值显示为 x 轴和 y 轴上的点,帮助我们直观地了解这两个变量是否相关。 | 外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传 |
| 热图 | 热图使用颜色编码矩阵显示多个变量之间的相关性,其中颜色饱和度表示变量之间的相关性强度。热图有助于同时显示多个变量。 | 外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传 |

现在让我们看看一些用于可视化的 Python 库,从 Matplotlib 开始。

Matplotlib

Python 中数据可视化的主要库是 Matplotlib。Matplotlib 有许多类似于 Matlab(一种带有绘图工具的计算环境和编程语言)的可视化特性。Matplotlib 主要用于绘制二维图形,对创建三维图形的支持有限。

与其他库(如 Seaborn 和 Pandas)相比,使用 Matplotlib 创建的绘图需要更多的代码行和绘图参数的定制(使用一些默认设置来简化创建绘图的代码编写)。

Matplotlib 构成了使用 Python 执行的大多数可视化的主干。

Matplotlib 中有两个接口,有状态的和面向对象的,在表 7-2 中有描述。

表 7-2

Matplotlib 中的接口

|

有状态接口

|

面向对象的接口

|
| — | — |
| 这个接口使用了基于 Matlab 的 pyplot 类。创建此类的单个对象,用于所有绘图目的。 | 在这个界面中,我们为不同的绘图元素使用不同的对象。该界面中用于绘图的两个主要对象是人物对象,作为其他对象的容器。对象,它是包含 x 轴、y 轴、点、线、图例和标签的实际绘图区域。注意,这里的轴不是指 x 和 y 轴,而是指整个子情节。 |
| 代码示例(使用有状态接口的可视化) :import matplotlib.pyplot as plt``%matplotlib inline``x=[1,2,3,4]``y=[3,6,9,12]``plt.plot(x,y) # The plot function plots a line between the x and y coordinates``plt.xlim(0,5) # Sets limits for the x axis``plt.ylim(0,15) # Sets limits for the y axis | 代码示例(使用面向对象界面的可视化):import matplotlib.pyplot as plt``%matplotlib inline``x=[1,2,3,4]``y=[3,6,9,12]``fig,ax=plt.subplots(figsize=(10,5)) #The subplots method creates a tuple returning a figure and one or more axes.``ax.plot(x,y) #Creating a plot with an axes object |
| plt.xlabel('X axis') #labels the x axis``plt.ylabel('Y axis') #labels the y axis``plt.title('Basic plot') #Gives a title``plt.suptitle('Figure title',size=20,y=1.02) # Gives a title to the overall figure定制(使用有状态接口):在此界面中,所有更改都是使用指向图形或轴的 pyplot 对象的当前状态进行的,如下所示。代码示例:#This code makes changes to the graph created using the plt object``ax=plt.gca() # current axes``ax.set_ylim(0,12) #use it to set the y axis limits``fig=plt.gcf() #current figure``fig.set_size_inches(4,4) #use it to set the figure size | 定制(使用面向对象的界面):在这个界面中,因为我们有不同的对象用于图形和每个子图或轴,这些对象被单独定制和标记,如下所示。代码示例:#this code makes changes to the graph created using the preceding object-oriented interface``ax.set_xlim(0,5) # Sets limit for the x axis``ax.set_ylim(0,15) # Sets limit for the y axis``ax.set_xlabel('X axis') #Labels x axis``ax.set_ylabel('Y axis') #Labels y axis``ax.set_title('Basic plot') # Gives a title to the graph plotted``fig.suptitle('Figure title',size=20,y=1.03) #Gives a title to the overall figure |

延伸阅读:查看更多关于这两种不同界面: https://matplotlib.org/3.1.1/tutorials/introductory/lifecycle.html

使用 Matplotlib 绘图的方法

由于能够控制和自定义每个单独的对象或绘图,因此推荐使用面向对象的方法在 Matplotlib 中绘图。以下步骤使用面向对象的方法进行绘图。

  1. 创建一个图形(外容器)并设置其尺寸:

    plt.figure 函数创建一个图形并设置其尺寸(宽度和高度),如下所示。

    代码:

  2. 确定子情节的数量,并为图中的每个子情节分配位置:

    在下面的例子中,我们创建了两个支线剧情,并将它们垂直放置。因此,我们将图形分成两行和一列,每一部分有一个子情节。

    fig.add_subplot 函数创建一个轴对象或子图,并为每个子图分配一个位置。参数–211(用于创建第一个轴对象-“ax1”的 add_subplot 函数)意味着我们给它图中的第一个位置,有两行和一列。

    参数-212(用于创建第二个轴对象- "ax2 "的 add_subplot 函数)意味着我们给出了图中第二个位置的两行和一列。请注意,第一个数字表示行数,第二个数字表示列数,最后一个数字表示子图或轴的位置。

    CODE:

    ax1=fig.add_subplot(211)
    ax2=fig.add_subplot(212)
    
    
  3. 绘制并标注每个支线剧情:

    在位置被分配给每个支线剧情后,我们继续生成单独的支线剧情。我们正在创建一个直方图(使用 hist 函数)和一个条形图(使用条形图函数)。使用 set_xlabelset_ylabel 功能标记 x 轴和 y 轴。

    CODE:

    labelling the x axis
    ax1.set_xlabel("Age")
    #labelling the yaxis
    ax1.set_ylabel("Frequency")
    #plotting a histogram using the hist function
    ax1.hist(df['Age'])
    #labelling the X axis
    ax2.set_xlabel("Category")
    #labelling the Y axis
    ax2.set_ylabel("Numbers")
    #setting the x and y lists for plotting the bar chart
    x=['Males','Females']
    y=[577,314]
    #using the bar function to plot a bar graph
    ax2.bar(x,y)
    
    
fig=plt.figure(figsize=(10,5))

输出:

注意图 7-1 的上半部分被第一个轴对象(直方图)占据,图的下半部分包含第二个子图(柱状图)。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-1

人物中的支线剧情

使用 Pandas 绘图

Pandas 库在幕后使用 Matplotlib 库进行可视化,但是使用 Pandas 函数绘制图形更加直观和用户友好。Pandas 要求数据为宽格式或聚合格式。

Pandas 中使用的 plot 函数(基于 Matplotlib plot 函数)允许我们简单地通过定制指定绘图类型的种类参数的值来创建各种各样的绘图。这也是面向对象编程中多态性的一个例子(OOPS 的原则之一,我们在第二章中研究过),我们使用相同的方法做不同的事情。绘图方法中的种类参数随着您想要绘制的图形种类而变化。

让我们学习如何使用虹膜数据集在 Pandas 身上创建情节。

鸢尾数据集包含鸢尾植物各种物种的样本。每个样本包含五个属性:萼片长度、萼片宽度、花瓣长度、花瓣宽度和种类(鸢尾杂色鸢尾海滨鸢尾)。每个物种有 50 个样本。 Iris 数据集内置于 sklearn 库中,可按如下方式导入:

代码:

import pandas as pd
from sklearn.datasets import load_iris
data=load_iris()
iris=pd.DataFrame(data=data.data,columns=data.feature_names)
iris['species']=pd.Series(data['target']).map({0:'setosa',1:'versicolor',2:'virginica'})

散点图

散点图有助于我们了解两个变量之间是否存在线性关系。要在 Pandas 中生成散点图,我们需要使用值 scatter 和参数 kind ,并在 plot 函数的参数列表中提到要用于绘图的列(由参数“x”和“y”指定)。图 7-2 中的图表表明两个变量(“花瓣长度”和“花瓣宽度”)是线性相关的。

代码:

iris.plot(kind='scatter',x='petal length (cm)',y='petal width (cm)')

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-2

Pandas 散点图

直方图

直方图用于可视化频率分布,不同的条形代表不同区间的频率(图 7-3 )。值“hist”与功能中的种类参数一起用于创建直方图。

代码:

iris['sepal width (cm)'].plot(kind='hist')

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-3

直方图的一个例子

从这个直方图中我们可以看出,“萼片宽度”变量大致呈正态分布。

饼图

饼状图将构成变量的不同值显示为圆中的扇形(图 7-4 )。请注意,Pandas 需要使用 value_counts 函数来计算每个类别中的值的数量,因为在 Pandas 中绘图时,聚合不会自动执行(稍后我们将看到,如果绘图是使用 Seaborn 库完成的,聚合会得到处理)。我们需要使用值“pie”和种类参数来创建饼图。

代码:

iris['species'].value_counts().plot(kind='pie')

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-4

用 Pandas 制作饼图

我们看到这三个物种(“virginica”、“setosa”和“versicolor”)形成了一个圆的相等部分,也就是说,它们具有相同数量的值。

Pandas剧情方法非常直观,容易上手。仅仅通过改变种类参数的值,我们就可以绘制出各种各样的图形。

延伸阅读:查看更多可用于 Pandas 的情节类型:

https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html#other-plots

Seaborn 图书馆

Seaborn 是另一个基于 Python 的数据可视化库。Seaborn 更改了 Matplotlib 的默认属性,以调整调色板并对列自动执行聚合。默认设置使得编写创建各种图所需的代码更加容易。

Seaborn 也提供了定制这些图的能力,但是与 Matplotlib 相比,定制选项较少。

Seaborn 使二维以上的数据可视化成为可能。它还要求数据采用长(整齐)格式,这与 Pandas 相反,后者要求数据采用宽格式。

让我们看看如何使用 Seaborn 和 Titanic 数据集绘制图表。

我们使用 Seaborn 中的函数来创建不同的图,以可视化该数据集中的不同变量。

在使用 Seaborn 库的函数之前,需要先导入它。Seaborn 库的别名是 sns ,用于调用绘图函数。

代码:

import seaborn as sns
titanic=pd.read_csv('titanic.csv')

箱线图

基于统计参数,箱线图给出了变量的分布和偏斜度的概念,并指出异常值的存在(用圆圈或圆点表示),如图 7-5 所示。Seaborn 中的箱线图功能可用于创建箱线图。要可视化的特性的列名作为参数传递给该函数。

代码:

sns.boxplot(titanic['Age'])

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-5

展示“年龄”变量的箱线图

向任何 Seaborn 绘图函数添加参数

当我们向 Seaborn 中使用的任何函数传递参数时,我们可以使用两种方法:

  • 我们可以使用完整的列名(包括数据帧的名称),跳过数据参数。

    代码:

  • 或者,以字符串形式提及列名,并使用 data 参数来指定 DataFrame 的名称。

    CODE:

    sns.boxplot(x='Age',data=titanic)
    
    
sns.boxplot(titanic['Age'])

内核密度估计值

核密度估计是一个用于可视化连续变量概率分布的图,如图 7-6 所示。Seaborn 中的 kdeplot 函数用于绘制核密度估计值。

代码:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-6

核密度估计(KDE)图示例

sns.kdeplot(titanic['Age'])

延伸阅读: https://seaborn.pydata.org/generated/seaborn.kdeplot.html

小提琴情节

小提琴图合并了盒图和核密度图,小提琴的形状代表频率分布,如图 7-7 所示。我们使用 Seaborn 中的 violinplot 函数来生成小提琴情节。

代码:

sns.violinplot(x='Pclass',y='Age',data=titanic)

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-7

锡伯恩小提琴情节的一个例子

延伸阅读: https://seaborn.pydata.org/generated/seaborn.violinplot.html

计数图

计数图用于绘制分类变量,条形的长度代表变量的每个唯一值的观察次数。在图 7-8 中,两个条形显示了未幸存的乘客人数(对应于“幸存”变量的值 0)和幸存的乘客人数(对应于“幸存”变量的值 1)。Seaborn 中的计数图函数可用于生成计数图。

代码:

sns.countplot(titanic['Survived'])

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-8

锡伯恩的计数图示例

延伸阅读: https://seaborn.pydata.org/generated/seaborn.countplot.html

热图

热图是关联矩阵的图形表示,代表数据集中不同变量之间的关联,如图 7-9 所示。颜色的强度代表相关性的强度,值代表相关性的程度(接近 1 的值代表两个强相关的变量)。请注意,对角线上的值都是 1,因为它们表示变量与其自身的相关性。

Seaborn 中的热图功能创建热图。参数不能(值为“真”)允许显示代表相关度的值,参数 cmap 可用于改变默认调色板。 corr 方法创建一个数据帧,其中包含不同变量对之间的相关程度。热图的标签由相关数据帧(在本例中为 titanic.corr)中的索引和列值填充。

代码:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-9

Seaborn 的热图示例

sns.heatmap(titanic.corr(),annot=True,cmap='YlGnBu')

延伸阅读:

查看有关“热图”功能及其参数的更多信息:

https://seaborn.pydata.org/generated/seaborn.heatmap.html

查看更多关于自定义调色板和颜色图: https://seaborn.pydata.org/tutorial/color_palettes.html

刻面网格

小平面网格表示单个参数的分布或参数之间的关系穿过包含色调参数的网格,如图 7-10 所示。在第一步中,我们创建一个网格对象(行色调参数是可选的),在第二步中,我们使用这个网格对象绘制我们选择的图形(绘图的名称和要绘制的变量作为参数提供给 map 函数)。Seaborn 中的 FacetGrid 函数用于绘制小平面网格。

示例:代码:

g = sns.FacetGrid(titanic, col="Sex",row='Survived') #Initializing the grid
g.map(plt.hist,'Age')#Plotting a histogram using the grid object

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-10

小平面网格的示例

情节

该图使用线性回归模型在两个连续变量的数据点之间绘制回归线,如图 7-11 所示。Seaborn 函数 regplot 用于创建该图。

代码:

sns.regplot(x='Age',y='Fare',data=titanic)

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-11

regplot 的示例

延伸阅读:

https://seaborn.pydata.org/generated/seaborn.regplot.html#seaborn.regplot

lmplot

该图是 regplot 和 facet grid 的组合,如图 7-12 所示。使用 lmplot 函数,我们可以看到不同参数值的两个连续变量之间的关系。

在下面的例子中,我们绘制了两个数值变量(“年龄”和“费用”),它们跨越了具有不同行和列变量的网格。

代码:

sns.lmplot(x='Age',y='Fare',row='Survived',data=titanic,col='Sex')

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-12

一个很好的例子

下面总结了 regplot 和 lmplot 之间的差异:

  • regplot 函数只接受两个变量作为参数,而 lmplot 函数接受多个参数。

  • lmplot 函数在图形对象级别工作,而 regplot 函数在轴对象级别工作。

lmplot 上的进一步阅读: https://seaborn.pydata.org/generated/seaborn.lmplot.html

查看更多关于 regplot 和 lmplot 的区别: https://seaborn.pydata.org/tutorial/regression.html#functions-to-draw-linear-regression-models

带状图

带状图类似于散点图。区别在于带状图中使用的变量类型。散点图中两个变量都是连续的,而带状图中一个分类变量对应一个连续变量,如图 7-13 所示。Seaborn 函数带状图生成带状图。

考虑下面的例子,其中“年龄”变量是连续的,而“存活”变量是分类的。

代码:

sns.stripplot(x='Survived',y='Age',data=titanic)

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-13

带状图的示例

延伸阅读: https://seaborn.pydata.org/generated/seaborn.stripplot.html

蜂群图

群图类似于带状图,区别在于群图中的点不像带状图中的点那样重叠。随着点更加分散,我们对连续变量的分布有了更好的了解,如图 7-14 所示。海洋函数蜂群图生成蜂群图。

代码:

sns.swarmplot(x='Survived',y='Age',data=titanic)

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-14

群体图的一个例子

延伸阅读: https://seaborn.pydata.org/generated/seaborn.swarmplot.html#seaborn.swarmplot

猫图

catplot 是带状图和小平面网格的组合。我们可以通过指定色调参数,绘制一个连续变量与各种分类变量的关系,如图 7-15 所示。注意,虽然带状图是由 catplot 函数生成的默认图,但它也可以生成其他图。可使用种类参数改变绘图类型。

代码:

sns.catplot(x='Survived',y='Age',col='Survived',row='Sex',data=titanic)

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-15

Seaborn 的猫图示例

延伸阅读: https://seaborn.pydata.org/generated/seaborn.catplot.html

配对图

配对图显示数据集中所有可能的变量对之间的二元关系,如图 7-16 所示。Seaborn 函数 pairplot 创建一个 pairplot。请注意,您不必提供任何列名作为参数,因为数据集中的所有变量都会被自动视为绘图变量。您需要传递的唯一参数是数据帧的名称。在显示为配对图输出一部分的一些图中,任何给定的变量也相对于其自身绘制。沿着成对图对角线的图显示了这些图。

代码:

sns.pairplot(data=titanic)

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-16

Seaborn 的配对图示例

联合地块

联合图显示了两个变量之间的关系以及变量的个体分布,如图 7-17 所示。 jointplot 函数将待绘制的两个变量的名称作为参数。

代码:

sns.jointplot(x='Fare',y='Age',data=titanic)

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 7-17

Seaborn 联合地块的一个例子

https://seaborn.pydata.org/generated/seaborn.jointplot.html#seaborn.jointplot 继续阅读

关于 Seaborn 图书馆的进一步阅读:

在 Seaborn 中可以创建的各种图形的例子: https://seaborn.pydata.org/examples/index.html

Seaborn 入门及解决实例: https://seaborn.pydata.org/introduction.html

摘要

  1. 三个基于 Python 的库可用于 Python 中的可视化——Matplotlib(基于 Matlab)、Pandas 和 Seaborn。

  2. 在我们绘制图形之前,我们需要弄清楚需要绘制的变量的类型以及需要绘制的变量的数量。对分类变量使用条形图和饼图,对连续变量使用直方图和散点图。

  3. Matplotlib 有两个用于绘图的接口——有状态接口和面向对象接口。有状态接口使用 pyplot 类,并跟踪这个类的对象的当前状态。面向对象的界面使用对象的层次结构来表示绘图的各种元素,并使用这些对象进行绘图。

  4. Pandas 里用来绘图的 plot 函数,在后端使用 Matplotlib。这个函数通过改变传递给它的参数就可以很容易地绘制任何类型的图形,从而利用了多态原理(一个名称,多种形式)。

  5. Seaborn 是另一个在后端使用 Matplotlib 的库。通过更改默认参数,它最大限度地减少了对图形元素执行聚合、标注和颜色编码的需要。它还提供了可视化两个以上变量的能力。

在下一章中,我们将研究一些真实世界的案例,在这些案例中,我们将把我们所学到的关于可视化和数据争论的知识付诸实践。

复习练习

问题 1

当你有以下变量时,你会用哪个图?

  • 一个分类变量

  • 一个连续变量

  • 两个连续变量

  • 三个或更多连续变量

  • 一个连续变量和一个分类变量

  • 两个连续变量和两个或更多分类变量

问题 2

将左边的功能与右边正确的描述配对

| 1.小平面网格 | a.显示所有可能的变量对和单个变量分布之间关系的图表 | | 2.猫图 | b.穿过分类参数网格的连续变量图 | | 3.群体图 | c.一个连续变量和一个分类变量的图,点不重叠 | | 4.配对图 | d.结合了盒图和核密度估计的图 | | 5.小提琴情节 | e.小平面网格和带状图的组合 |

问题 3

关于使用 Pandas 图书馆进行的可视化,下列哪一项是正确的?

  1. 绘制图形时会自动执行聚合

  2. Pandas 需要长格式的数据

  3. plot 方法用于绘制图形

  4. 类型参数用于指定绘图的类型

  5. 种类参数指定绘图的类型

问题 4

内联显示 Matplotlib 和 Pandas 图形所需的神奇命令是

  1. %matplotlib

  2. 内嵌百分比

  3. %matplotlib inline

  4. 以上都不是

问题 5

axes 对象是指

  1. 横坐标

  2. y 轴

  3. x 轴和 y 轴

  4. 包含图形的子情节

问题 6

对于给定的数据帧 df,我们如何指定热图函数中使用的以下参数?

  1. 相关矩阵

  2. 用于给热图中的方块着色的颜色图

  3. 每个参数之间相关程度的数值

问题 7

Sklearn 库有一个内置的数据集, Iris 。它包含了各种鸢尾属植物的样本。每个样本包含四个属性:萼片长度、萼片宽度、花瓣长度、花瓣宽度、物种(鸢尾杂色鸢尾海滨鸢尾),每个物种 50 个样本。

  • 将此数据集中的数据读入 DataFrame。

  • 创建一个有两个支线剧情的 10*5 图形。

  • 在第一个子图中,画出花瓣的长度和宽度。

  • 在第二个子图中,画出萼片长度对萼片宽度。

  • 对于每个图,标记 x 和 y 轴并设置标题。

问题 8

使用 Seaborn 中的 load_dataset 函数从 tips 数据集(内置于 Seaborn 中)加载数据。该数据集包含总账单金额和访问餐馆的不同顾客的小费值。顾客根据他们的性别、吸烟偏好以及来访的日期和时间进行分类。

  • 创建一个图表,显示吸烟者和不吸烟者总账单的分布(带状图),跨越一个包含不同时间和性别列值的网格。

  • 创建一个绘图来显示“小费”和“总账单”列之间的关系,用于:男性和吸烟者、男性和不吸烟者、女性和吸烟者以及女性和不吸烟者。

答案

问题 1

  • 一个分类变量:计数图

  • 一个连续变量:直方图,核密度估计

  • 两个连续变量:散点图、线图

  • 三个或更多连续变量:热图

  • 一个连续变量和一个分类变量:带状图、群集图、条形图

  • 两个连续变量和两个或更多分类变量:catplot、facet grid、lmplot

问题 2

1-b;2-e;3-c;4-a;五维

问题 3

选项 3 和 5

Pandas 使用带有 kind 参数的 plot 方法来创建各种图形。Pandas 要求数据是广义的或聚合的形式。与 Seaborn 不同,默认情况下不进行聚合。在应用方法之前,聚合需要值计数方法。

问题 4

选项 3

我们使用神奇的命令( %matplotlib inline )在 matplotlib 和 Pandas 中内联显示图形。

问题 5

选项 4

术语“轴”是一个误称,并不是指 x 或 y 轴。它指的是子情节或绘图区域,是人物对象的一部分。一个人物可以包含多个支线剧情。

问题 6

  • 相关矩阵:df.corr()(生成一个表示相关矩阵的数据帧)

  • 用于给热图中的方块着色的颜色图: cmap 参数

  • 表示相关度的数值:annot 参数( annot=True

问题 7

import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
import pandas as pd
#importing the iris dataset
data=load_iris()
iris=pd.DataFrame(data=data.data,columns=data.feature_names)
iris['species']=data.target
iris['species']=iris['species'].map({0:'setosa',1:'versicolor',2:'virginica'})
iris['species'].value_counts().plot(kind='bar')
fig=plt.figure(figsize=(10,5))
ax1=fig.add_subplot(121) #defining the first subplot
#plotting petal length vs petal width in the first subplot
iris.plot(kind='scatter',x='petal length (cm)',y='petal width (cm)',ax=ax1)
#adding the title for the first subplot
ax1.set_title("Petal length vs width")
#adding the label for the X axis
ax1.set_xlabel("Petal length")
#adding the label for the Y axis
ax1.set_ylabel("Petal width")
ax2=fig.add_subplot(122) #defining the second subplot
#plotting sepal length vs sepal width in the second subplot
iris.plot(kind='scatter',x='sepal length (cm)',y='sepal width (cm)',ax=ax2)
ax2.set_xlabel("Sepal length")
ax2.set_ylabel("Sepal width")
ax2.set_title("Sepal length vs width")
#Increasing the distance width between the subplots
fig.subplots_adjust(wspace=1)

问题 8

import seaborn as sns
#loading the data into a DataFrame using the load_dataset function
tips = sns.load_dataset("tips")
#creating a catplot for showing the distribution of the total bill for different combinations of parameters
sns.catplot(x='smoker',y='total_bill',row='time',col='sex',data=tips)
#defining the FacetGrid object and setting the row and column values
g=sns.FacetGrid(tips,row='sex',col='smoker')
#specifying the plot and the columns we want to display
g.map(plt.scatter,'tip','total_bill')

八、数据分析案例研究

在上一章中,我们看了各种基于 Python 的可视化库,以及如何使用这些库中的函数来绘制不同的图形。现在,我们的目标是借助案例研究来理解到目前为止我们所讨论的概念的实际应用。我们研究以下三个数据集:

  • 非结构化数据分析:使用来自一个网页的数据,该网页提供了 2018 年法国票房最高的 50 部电影的信息

  • 空气质量分析:来自新德里(印度)空气质量监测站的数据,提供了四种污染物的每日水平——二氧化硫(SO 2 )、氮氧化物如二氧化氮(NO 2 )、臭氧和细颗粒物(PM 2.5

  • 新冠肺炎趋势分析:获取 2020 年前六个月世界各国每日病例数和死亡数的数据集

技术要求

外部文件

对于第一个案例研究,您需要参考以下 Wikipedia URL(数据直接取自网页):

https://en.wikipedia.org/wiki/List_of_2018_box_office_number-one_films_in_France

对于第二个案例研究,请从以下链接下载一个 CSV 文件:

https://github.com/DataRepo2019/Data-files/blob/master/NSIT%20Dwarka.csv

对于第三个案例研究,从以下链接下载一个 Excel 文件: https://github.com/DataRepo2019/Data-files/blob/master/COVID-19-geographic-disbtribution-worldwide-2020-06-29.xlsx

图书馆

除了我们在前面章节中使用的模块和库(包括 Pandas、NumPy、Matplotlib 和 Seaborn),我们在本章中使用 requests 模块向网站发出 HTTP 请求。

要使用本模块中包含的功能,请使用以下代码行将本模块导入您的 Jupyter 笔记本:

import requests

如果没有安装 requests 模块,您可以在 Anaconda 提示符下使用下面的命令安装它。

pip install requests

方法学

我们将在每个案例研究中使用以下方法:

  1. 打开一个新的 Jupyter 笔记本,并执行以下步骤:

    • 导入分析所需的库和数据

    • 读取数据集并检查前五行(使用 head 方法)

    • 获取关于每列的数据类型和每列中非空值的数量的信息(使用 info 方法)以及数据集的维度(使用 shape 属性)

    • 获取每一列的汇总统计数据(使用 describe 方法),并获取计数、最小值、最大值、标准偏差和百分位数的值

  2. 数据争论

    • 检查列的数据类型是否被正确识别(使用信息数据类型方法)。如果没有,使用 astype 方法改变数据类型

    • 如有必要,使用重命名方法重命名列

    • 使用 drop 方法删除任何不必要或多余的列或行

    • 如果需要,通过使用熔化堆栈方法重组数据,使数据变得整洁

    • 删除任何无关数据(空白值、特殊字符等)。)即不添加任何值,使用替换的方法

    • 使用 isna 方法检查是否存在空值,并使用 dropnafillna 方法删除或填充空值

    • 如果一列能为您的分析增加价值,则添加该列

    • 如果数据为分解格式,则使用 groupby 方法聚合数据

  3. 使用单变量、双变量和多变量图可视化数据

  4. 根据你的分析总结你的见解,包括观察和建议

案例研究 8-1:法国票房最高的电影——分析非结构化数据

在这个案例研究中,数据是从 HTML 页面而不是传统的 CSV 文件中读取的。

我们将要使用的 URL 如下: https://en.wikipedia.org/wiki/List_of_2018_box_office_number-one_films_in_France

该网页有一个表格,显示了 2018 年法国收入排名前 50 的电影的数据。我们使用请求库中的方法在 Pandas 中导入这些数据。Requests 是一个 Python 库,用于发出 HTTP 请求。它有助于从网页中提取 HTML 并与 API 接口。

我们想通过分析回答的问题:

  1. 找出收入最高的五部电影

  2. 排名前十的电影各自的百分比分成(收入)是多少?

  3. 年内月均营收如何变化?

步骤 1:导入数据并检查数据集的特征

首先,导入库并使用必要的函数来检索数据。

代码:

#importing the libraries
import requests
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
#Importing the data from the webpage into a DataFrame
url='https://en.wikipedia.org/wiki/List_of_2018_box_office_number-one_films_in_France'
req=requests.get(url)
data=pd.read_html(req.text)
df=data[0]

我们导入所有的库并将 URL 存储在一个变量中。然后,我们使用 get 方法向这个 URL 发出一个 HTTP 请求,从这个 web 页面中检索信息。requests 对象的 text 属性包含 HTML 数据,该数据被传递给函数 pd.read_html 。该函数返回一个 DataFrame 对象列表,其中包含网页上的各种表格。由于 web 页面上只有一个表,所以 DataFrame (df)只包含一个表。

检查前几条记录:

代码:

df.head()

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

获取数据类型和缺失值:

代码:

df.info()

输出:

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 50 entries, 0 to 49
Data columns (total 5 columns):
#        50 non-null int64
Date     50 non-null object
Film     50 non-null object
Gross    50 non-null object
Notes    50 non-null object
dtypes: int64(1), object(4)
memory usage: 2.0+ KB

正如我们所看到的,列的数据类型不是我们需要的格式。“毛”列表示总收入,这是一个数字列。但是,该列被分配了一个对象数据类型,因为它包含数字和非数字数据(如“、”和“$”符号等字符,以及“U”和“S”等字母)。下一步,我们处理诸如此类的问题。

第二步:数据争论

在这一步中,我们将:

  1. 删除不必要的字符

  2. 更改数据类型

  3. 删除不需要的列

  4. 从现有列创建新列

让我们从“总值”列中删除不需要的字符串,只保留数值:

代码:

#removing unnecessary characters from the Gross column
df['Gross']=df['Gross'].str.replace(r"US\$","").str.replace(r",","")

在前面的语句中,我们使用一系列链式替换方法和正则表达式原则来替换非数字字符。第一个 replace 方法删除“US$ ”,第二个 replace 方法删除逗号。用空字符串(“”)替换字符相当于删除字符。

现在,让我们使用 astype 方法将该列的数据类型转换为 int64 ,以便该列可以用于计算和可视化:

代码:

#changing the data type of the Gross column to make the column numeric
df['Gross']=df['Gross'].astype('int64')

为了检查这些更改是否已经反映出来,我们检查该列的前几条记录并验证数据类型:

代码:

df['Gross'].head(5)

输出:

0     6557062
1     2127871
2     2006033
3     2771269
4    16604101
Name: Gross, dtype: int64

正如我们从输出中看到的,该列的数据类型已经更改,值不再包含字符串。

我们还需要提取日期的月份部分,我们将首先更改“date”列的数据类型,然后对其应用 DatetimeIndex 方法,如下所示。

代码:

#changing the data type of the Date column to extract its components
df['Date']=df['Date'].astype('datetime64')
#creating a new column for the month
df['Month']=pd.DatetimeIndex(df['Date']).month

最后,我们使用下面的语句从数据帧中删除两个不必要的列。

代码:

#dropping the unnecessary columns
df.drop(['#','Notes'],axis=1,inplace=True)

第三步:可视化

为了可视化我们的数据,首先我们创建另一个 DataFrame (df1 ),它包含原始 DataFrame (df)包含的列的子集。这个数据帧 df1 只包含两列——“电影”(电影的名字)和“总收入”(总收入)。然后,我们按降序对收入值进行排序。这显示在下面的步骤中。

代码:

df1=df[['Film','Gross']].sort_values(ascending=False,by='Gross')

有一个不需要的列(“索引”)被添加到这个数据帧中,我们将在下一步中删除它。

代码:

df1.drop(['index'],axis=1,inplace=True)

前五名电影:s

我们创建的第一个图是一个条形图,显示了收入排名前五的电影:(图 8-1 )。

#Plotting the top 5 films by revenue
#setting the figure size
plt.figure(figsize=(10,5))
#creating a bar plot
ax=sns.barplot(x='Film',y='Gross',data=df1.head(5))
#rotating the x axis labels
ax.set_xticklabels(labels=df1.head()['Film'],rotation=75)
#setting the title
ax.set_title("Top 5 Films per revenue")
#setting the Y-axis labels
ax.set_ylabel("Gross revenue")
#Labelling the bars in the bar graph
for p in ax.patches:
ax.annotate(p.get_height(),(p.get_x()+p.get_width()/2,p.get_height()),ha='center',va='bottom')

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-1

显示前五部电影各自份额百分比的饼图

为了描述前十部电影的份额(按收入),我们创建了一个饼图(图 8-2 )。

代码:

#Pie chart showing the share of each of the top 10 films by percentage in the revenue
df1['Gross'].head(10).plot(kind='pie',autopct='%.2f%%',labels=df1['Film'],figsize=(10,5))

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-2

描绘前十部电影收入份额的饼图

我们首先创建另一个 DataFrame,通过计算每个月的平均值来聚合一个月的数据(图 8-3 )。

代码:

#Aggregating the revenues by month
df2=df.groupby('Month')['Gross'].mean()
#creating a line plot
df2.plot(kind='line',figsize=(10,5))

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-3

2018 年平均票房月收入(法国)

步骤 4:基于分析和可视化得出推论

  1. 平均月收入差异很大,可能取决于电影上映的月份,这可能需要跨年度的进一步分析。

  2. 2018 年法国票房最高的三部电影是复仇者联盟家族Les Tuche 3

案例研究 8-2:利用数据分析进行空气质量管理

为了监测环境空气质量的状况,印度中央污染控制委员会(CPCB)在印度各地建立了一个庞大的监测站网络。定期监测的参数包括二氧化硫(SO 2 )、氮氧化物如二氧化氮(NO 2 )、臭氧、细颗粒物(PM 2.5 )。根据多年来的趋势,国家首都德里的空气质量已经成为公众关注的问题。接下来对每日空气质量数据进行逐步分析,以展示数据分析如何帮助规划空气质量管理中的干预措施。

注意:用于本案例研究的数据集的名称是:“Note 德瓦尔卡. csv ”.,请参考技术描述部分,了解如何导入该数据集的详细信息。

我们想通过分析回答的问题:

  1. 年平均水平:在四种污染物中,SO 2 、NO 2 、臭氧和 PM 2.5 ,它们的年平均水平经常超过规定的年度标准?

  2. 每日标准:对于关注的污染物,每年有多少天超过每日标准?

  3. 时间变化:哪些月份的污染水平在大多数日子里超过临界水平?

步骤 1:导入数据并检查数据集的特征

代码:

import pandas as pd
import numpy as np
import seaborn as sns
import matplotlib.pyplot as plt
#aqdata is the name of the DataFrame, short for Air Quality Data.
aqdata=pd.read_csv('NSIT Dwarka.csv')
aqdata.head()

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

检查 : 列的数据类型

代码:

aqdata.info()

输出:

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 2192 entries, 0 to 2191
Data columns (total 6 columns):
From Date    2191 non-null object
To Date      2191 non-null object
PM2.5        2191 non-null object
SO2          2187 non-null object
Ozone        2187 non-null object
NO2          2190 non-null object
dtypes: object(6)
memory usage: 102.8+ KB

观察:尽管 SO 2 、NO 2 、臭氧和 PM 2.5 的值是数字,但 Pandas 将这些列的数据类型读取为"对象"。为了使用这些列(例如,绘制图表、观察趋势、计算聚合值),我们需要更改这些列的数据类型。此外,似乎还有一些遗漏的条目。

第二步:数据争论

根据上一步中的观察,在这一步中,我们将

  1. 处理缺失值:我们可以选择删除空值或替换空值。

  2. 更改列的数据类型。

检查数据集中缺失的值:

代码:

aqdata.isna().sum()

输出:

From Date    1
To Date      1
PM2.5        1
SO2          5
Ozone        5
NO2          2
dtype: int64

似乎没有很多缺失的价值,但这就是问题所在。当我们使用 head 语句检查前几行时,我们看到一些丢失的值在原始数据集中被表示为 None 。然而,Pandas 并不认为这些是空值。让我们用值 np.nan 替换值 None ,这样 Pandas 就可以将这些值视为空值:

代码:

aqdata=aqdata.replace({'None':np.nan})

现在,如果我们计算空值的数量,我们会看到一个非常不同的画面,表明数据集中缺失值的出现率要高得多。

代码:

aqdata.isna().sum()

输出:

From Date      1
To Date        1
PM2.5        562
SO2           84
Ozone        106
NO2          105
dtype: int64

让我们检查列的当前数据类型:

代码:

aqdata.info()

输出:

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 2192 entries, 0 to 2191
Data columns (total 6 columns):
From Date    2191 non-null object
To Date      2191 non-null object
PM2.5        1630 non-null object
SO2          2108 non-null object
Ozone        2086 non-null object
NO2          2087 non-null object
dtypes: object(6)
memory usage: 102.8+ KB

我们看到包含数值的列没有被识别为数值列,包含日期的列也没有被正确识别。具有不正确数据类型的列成为下一步的障碍,在下一步中,我们分析趋势并绘制图表;这一步要求列的数据类型采用适合 Pandas 阅读的格式。

在下面的代码行中,我们使用 pd.to_datetime 方法将“开始日期”和“结束日期”列的数据类型转换为 datetime 类型,这样可以更容易地分析日期的各个组成部分,如月和年。

代码:

aqdata['From Date']=pd.to_datetime(aqdata['From Date'], format='%d-%m-%Y %H:%M')
aqdata['To Date']=pd.to_datetime(aqdata['To Date'], format='%d-%m-%Y %H:%M')
aqdata['SO2']=pd.to_numeric(aqdata['SO2'],errors='coerce')
aqdata['NO2']=pd.to_numeric(aqdata['NO2'],errors='coerce')
aqdata['Ozone']=pd.to_numeric(aqdata['Ozone'],errors='coerce')
aqdata['PM2.5']=pd.to_numeric(aqdata['PM2.5'],errors='coerce')

使用 info 方法检查数据类型是否已经改变。

代码:

aqdata.info()

输出:

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 2192 entries, 0 to 2191
Data columns (total 6 columns):
From Date    2191 non-null datetime64[ns]
To Date      2191 non-null datetime64[ns]
PM2.5        1630 non-null float64
SO2          2108 non-null float64
Ozone        2086 non-null float64
NO2          2087 non-null float64
dtypes: datetime64ns, float64(4)
memory usage: 102.8 KB

由于我们的大部分分析考虑的是年度数据,我们创建了一个新列来提取年份,使用的是 pd。DatetimeIndex 函数。

代码:

aqdata['Year'] = pd.DatetimeIndex(aqdata['From Date']).year

现在,我们为每年创建单独的 DataFrame 对象,以便我们可以每年分析数据。

代码:

#extracting the data for each year
aq2014=aqdata[aqdata['Year']==2014]
aq2015=aqdata[aqdata['Year']==2015]
aq2016=aqdata[aqdata['Year']==2016]
aq2017=aqdata[aqdata['Year']==2017]
aq2018=aqdata[aqdata['Year']==2018]
aq2019=aqdata[aqdata['Year']==2019]

现在,让我们看看每年数据中的空值数量:

代码:

#checking the missing values in 2014
aq2014.isna().sum()

输出:

From Date      0
To Date        0
PM2.5        365
SO2            8
Ozone          8
NO2            8
Year           0
dtype: int64

#checking the missing values in 2015
aq2015.isna().sum()

输出:

From Date      0

To Date        0
PM2.5        117
SO2           12
Ozone         29
NO2           37
Year           0
dtype: int64

代码:

#checking the missing values in 2016
aq2016.isna().sum()

输出:

From Date     0
To Date       0
PM2.5        43
SO2          43
Ozone        47
NO2          42
Year          0
dtype: int64

#checking the missing values in 2017
aq2017.isna().sum()

输出:

From Date     0
To Date       0
PM2.5        34
SO2          17
Ozone        17
NO2          12
Year          0
dtype: int64

代码:

#checking the missing values in 2018
aq2018.isna().sum()

输出:

From Date    0
To Date      0
PM2.5        2
SO2          2
Ozone        2
NO2          2
Year         0
dtype: int64

代码:

#checking the missing values in 2019

aq2019.isna().sum()

输出:

From Date    0
To Date      0
PM2.5        0
SO2          1
Ozone        2
NO2          3
Year         0
dtype: int64

从对每年的空值的分析中,我们看到 2014 年和 2015 年的数据具有大部分缺失值。因此,我们选择忽略 2014 年和 2015 年的数据,并分析 2016 年至 2019 年的 4 年数据。根据印度中央污染控制委员会制定的标准,我们需要至少 104 个每日监测值才能得出年平均值。

2016 年、2017 年、2018 年和 2019 年是分析空气质量数据的四年。在进入下一步之前,我们删除 2016 年至 2019 年每年缺失的值,而不是替换它们,因为我们有这四年中每一年的足够数据(超过 104 个读数)来计算年平均值,如下所示。

代码:

#dropping the null values for the four years chosen for analysis
aq2016.dropna(inplace=True) # inplace=True makes changes in the original dataframe
aq2017.dropna(inplace=True)
aq2018.dropna(inplace=True)
aq2019.dropna(inplace=True)

第三步:数据可视化

分析的第一部分:绘制污染物的年平均值

根据监测到的 PM 2.5 、SO 2 、NO 2 和臭氧(O 3 的 24 小时平均环境空气浓度,绘制年平均值,以识别年平均值超过规定的国家环境空气质量标准的参数。

首先,我们计算每种污染物(PM 2.5 ,SO 2 ,NO 2 ,臭氧)的年平均值,如下所示:

代码:

#Yearly averages for SO2 in each year
s16avg=round(aq2016['SO2'].mean(),2)
s17avg=round(aq2017['SO2'].mean(),2)
s18avg=round(aq2018['SO2'].mean(),2)
s19avg=round(aq2019['SO2'].mean(),2)
#Yearly averages for PM2.5 in each year
p16avg=round(aq2016['PM2.5'].mean(),2)
p17avg=round(aq2017['PM2.5'].mean(),2)
p18avg=round(aq2018['PM2.5'].mean(),2)
p19avg=round(aq2019['PM2.5'].mean(),2)
#Yearly averages for NO2 in each year
n16avg=round(aq2016['NO2'].mean(),2)
n17avg=round(aq2017['NO2'].mean(),2)
n18avg=round(aq2018['NO2'].mean(),2)
n19avg=round(aq2019['NO2'].mean(),2)

说明:代表污染物平均值的变量命名符号如下:污染物的第一个字母,年份,平均值的缩写“avg”。例如,s15avg 表示 2015 年 SO 2 的平均水平。我们使用均值方法计算平均值,并使用 round 函数将平均值四舍五入到小数点后两位。我们不考虑臭氧,因为年度标准不适用于臭氧。

接下来,我们为每种污染物创建一个数据框架,每个数据框架有两列。其中一列表示年份,另一列显示该年的年平均水平。

代码:

#Creating data frames with yearly averages for each pollutant
dfs=pd.DataFrame({'Yearly average':[s16avg,s17avg,s18avg,s19avg]},index=['2016','2017','2018','2019']) #dfs is for SO2
dfp=pd.DataFrame({'Yearly average':[p16avg,p17avg,p18avg,p19avg]},index=['2016','2017','2018','2019']) #dfp is for PM2.5
dfn=pd.DataFrame({'Yearly average':[n16avg,n17avg,n18avg,n19avg]},index=['2016','2017','2018','2019']) #dfn is for NO2

现在,我们准备绘制每种污染物年平均值的图表(图 8-4 )。

代码:

#Creating a figure with 3 subplots - 1 for each pollutant
fig,(ax1,ax2,ax3)=plt.subplots(1,3)
#Creating a DataFrame the yearly averages for NO2
dfn.plot(kind='bar',figsize=(20,5),ax=ax1)
#Setting the title for the first axes object
ax1.set_title("NO2", fontsize=18)
#Setting the X-axis label for the NO2 graph
ax1.set_xlabel("Years", fontsize=18)
ax1.legend().set_visible(False)
#Setting the Y-axis label
ax1.set_ylabel("Yearly average", fontsize=18)
#Creating a dashed line to indicate the annual standard
ax1.hlines(40, -.9,15, linestyles="dashed")
#Labelling this dashed line
ax1.annotate('Annual avg. standard for NO2',(-0.5,38))
#labelling the bars
for p in ax1.patches:
    ax1.annotate(p.get_height(),(p.get_x()+p.get_width()/2,p.get_height()), color="black", ha="left", va ='bottom',fontsize=12)

#Plotting the yearly averages similarly for PM2.5
dfp.plot(kind='bar',figsize=(20,5),ax=ax2)
ax2.set_title("PM2.5", fontsize=18)
ax2.hlines(40, -.9,15, linestyles="dashed")
ax2.annotate('Annual avg. standard for PM2.5',(-0.5,48))
ax2.legend().set_visible(False)
for p in ax2.patches:
    ax2.annotate(p.get_height(),(p.get_x()+p.get_width()/2,p.get_height()), color="black", ha="center", va ='bottom',fontsize=12)

#Plotting the yearly averages similarly for SO2

dfs.plot(kind='bar',figsize=(20,5),ax=ax3)
ax3.hlines(50, -.9,15, linestyles="dashed")
ax3.annotate('Annual avg. standard for SO2',(-0.5,48))
ax3.set_title("SO2", fontsize=18)
ax3.legend().set_visible(False)
for p in ax3.patches:
    ax3.annotate(p.get_height(),(p.get_x()+p.get_width()/2,p.get_height()), color="black", ha="center", va ='bottom',fontsize=12)

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-4

污染物(NO 2 ,PM 2.5 ,SO 2 )相对于其年平均标准的年平均水平

观察:很明显,仅 PM 2.5 超过年平均值标准。对于 NO 2 ,观测值比较接近规定标准。对于 SO 2 ,观测值远小于年标准。因此,为了进一步分析,只考虑这两种污染物(NO 2 和 PM 2.5 )。

空气质量分析第二部分:绘制 PM 2.5 和 NO 2 每年 24 小时超标天数

虽然分析的第一步指出了空气质量管理和干预规划所关注的污染物,但在第二步中,我们显示了每年 24 小时数值超过标准的各种水平是如何分布的。在 PM 2.5 的情况下,我们绘制了每年观察值落在以下范围内的天数。

  1. 0 至 60 微克/立方米 3

  2. 61 至 120 微克/立方米 3

  3. 121 至 180 微克/立方米 3

  4. 180 μg/m 3

为了绘制这些数据,我们需要为 2016 年到 2019 年的每一年创建 DataFrame 对象,以捕获 PM 2.5 水平落在这些间隔中的天数,如下所示:

代码:

#Creating intervals for 2016 with the number of days with PM2.5 concentration falling in that interval
a2=aq2016[(aq2016['PM2.5']<=60)]['PM2.5'].count()
b2=aq2016[((aq2016['PM2.5']>60) & (aq2016['PM2.5']<=120))]['PM2.5'].count()
c2=aq2016[((aq2016['PM2.5']>120) & (aq2016['PM2.5']<=180))]['PM2.5'].count()
d2=aq2016[(aq2016['PM2.5']>180)]['PM2.5'].count()
dfpb2016=pd.DataFrame({'year':'2016','pm levels':['<60','between 61 and 120','between 121 and 180','greater than 180'],'number of critical days':[a2,b2,c2,d2]})
#Creating intervals for 2017 with the number of days with PM2.5 concentration falling in each interval
a3=aq2017[(aq2017['PM2.5']<=60)]['PM2.5'].count()
b3=aq2017[((aq2017['PM2.5']>60) & (aq2017['PM2.5']<=120))]['PM2.5'].count()
c3=aq2017[((aq2017['PM2.5']>120) & (aq2017['PM2.5']<=180))]['PM2.5'].count()
d3=aq2017[(aq2017['PM2.5']>180)]['PM2.5'].count()
dfpb2017=pd.DataFrame({'year':'2017','pm levels':['<60','between 61 and 120','between 121 and 180','greater than 180'],'number of critical days':[a3,b3,c3,d3]})
#Creating intervals for 2018 with the number of days with PM2.5 concentration falling in each interval

a4=aq2018[(aq2018['PM2.5']<=60)]['PM2.5'].count()
b4=aq2018[((aq2018['PM2.5']>60) & (aq2018['PM2.5']<=120))]['PM2.5'].count()
c4=aq2018[((aq2018['PM2.5']>120) & (aq2018['PM2.5']<=180))]['PM2.5'].count()
d4=aq2018[(aq2018['PM2.5']>180)]['PM2.5'].count()
dfpb2018=pd.DataFrame({'year':'2018','pm levels':['<60','between 61 and 120','between 121 and 180','greater than 180'],'number of critical days':[a4,b4,c4,d4]})
#Creating intervals for 2019 with the number of days with PM2.5 concentration falling in each interval
a5=aq2019[(aq2019['PM2.5']<=60)]['PM2.5'].count()
b5=aq2019[((aq2019['PM2.5']>60) & (aq2019['PM2.5']<=120))]['PM2.5'].count()
c5=aq2019[((aq2019['PM2.5']>120) & (aq2019['PM2.5']<=180))]['PM2.5'].count()
d5=aq2019[(aq2019['PM2.5']>180)]['PM2.5'].count()
dfpb2019=pd.DataFrame({'year':'2019','pm levels':['<60','between 61 and 120','between 121 and 180','greater than 180'],'number of critical days':[a5,b5,c5,d5]})

现在,我们用这些时间间隔为每年绘制一个堆积条形图。为此,我们需要创建如下数据透视表:

代码:

dfpivot2019=dfpb2019.pivot(index='year',columns='pm levels',values='number of critical days')
dfpivot2018=dfpb2018.pivot(index='year',columns='pm levels',values='number of critical days')
dfpivot2017=dfpb2017.pivot(index='year',columns='pm levels',values='number of critical days')
dfpivot2016=dfpb2016.pivot(index='year',columns='pm levels',values='number of critical days')

使用这些数据透视表,我们创建如下堆叠条形图(图 8-5 ):

代码:

#Creating a figure with 4 sub-plots, one for each year from 2016-19
fig,(ax1,ax2,ax3,ax4)=plt.subplots(1,4)
fig.suptitle("Number of days per year in each interval")
cmp=plt.cm.get_cmap('RdBu')
#Plotting stacked horizontal bar charts for each year to represent intervals of PM2.5 levels
dfpivot2019.loc[:,['<60','between 61 and 120','between 121 and 180','greater than 180']].plot.barh(stacked=True, cmap=cmp,figsize=(15,5),ax=ax1)
dfpivot2018.loc[:,['<60','between 61 and 120','between 121 and 180','greater than 180']].plot.barh(stacked=True, cmap=cmp, figsize=(15,5),ax=ax2)
dfpivot2017.loc[:,['<60','between 61 and 120','between 121 and 180','greater than 180']].plot.barh(stacked=True, cmap=cmp, figsize=(15,5),ax=ax3)
dfpivot2016.loc[:,['<60','between 61 and 120','between 121 and 180','greater than 180']].plot.barh(stacked=True, cmap=cmp, figsize=(15,5),ax=ax4)
#Setting the properties - legend, yaxis and title
ax1.legend().set_visible(False)
ax2.legend().set_visible(False)
ax3.legend().set_visible(False)
ax4.legend(loc='center left',bbox_to_anchor=(1,0.5))
ax1.get_yaxis().set_visible(False)
ax2.get_yaxis().set_visible(False)
ax3.get_yaxis().set_visible(False)
ax4.get_yaxis().set_visible(False)
ax1.set_title('2019')
ax2.set_title('2018')
ax3.set_title('2017')
ax4.set_title('2016')

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-5

PM 2.5 的每个间隔级别每年的天数

观察:

可以看出,每年都观察到 PM 2.5 值超过 180 μg/m 3 ,因此,首先,对包括交通在内的主要污染活动的限制可以局限于此类别。

2 逐区间标图

同样,对于 NO 2 ,每年监测值超过 80 微克/立方米 3 的 24 小时标准的天数被绘制出来(图 8-6 )。

首先,我们为编号为 2 的项目创建一个数据框,该数据框捕捉每年中数值高于 80 μg/m 的天数 3 ,如下所示。

代码:

#Calculating the number of days in each year with regard to critical days of NO2 concentration
a=aq2015[(aq2015['NO2']>=80)]['NO2'].count()
b=aq2016[(aq2016['NO2']>=80)]['NO2'].count()
c=aq2017[(aq2017['NO2']>=80)]['NO2'].count()
d=aq2018[(aq2018['NO2']>=80)]['NO2'].count()
e=aq2019[(aq2019['NO2']>=80)]['NO2'].count()
dfno=pd.DataFrame({'years':['2015','2016','2017','2018','2019'],'number of days with NO2>80 μg':[a,b,c,d,e]})
ax=dfno.plot(kind='bar',figsize=(10,5))
ax.set_xticklabels(['2015','2016','2017','2018','2019'])
ax.set_title("NO2 number of days in each year with critical levels of concentration")
for p in ax.patches:
    ax.annotate(p.get_height(), (p.get_x() + p.get_width() / 2, p.get_height()), ha = 'center', va = 'bottom')

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-6

每年 NO 2 浓度达到临界水平的天数

推断:观察到的 24 小时 NO 2 值在五年中只有三年出现超标。

由于观察到的 24 小时 NO 2 值仅轻微超标,且仅持续几天,下一步仅限于对 PM 2.5 的进一步分析。

空气质量分析的第三部分:确定 PM 2.5 日值在大多数日子里超过临界水平的月份

在对车辆交通和施工等显著增加环境 PM 2.5 浓度的活动实施限制之前,有必要提供足够的通知,以避免对公众造成不便。因此,对于明显高于 180 微克/立方米的每日 PM 2.53 ,我们绘制了一年中每个月的时间变化图。为了做到这一点,在 12 个月中的每个月,我们捕捉每年 24 小时 PM 2.5 值超过 180 微克/立方米 3 的严重空气污染天数。

首先,我们用每月 PM 2.5 值超过 180 微克/立方米 3 的天数为每年创建数据帧,如下所示。

代码:

#Creating a dataframe for 2016 with the number of days in each month where the PM2.5 concentration is >180
aq2016['Month']=pd.DatetimeIndex(aq2016['From Date']).month #extracting the month
aq2016['condition']=(aq2016['PM2.5']>=180 ) # creating a boolean column that is True when the PM2.5 value is greater than 180 and false when it is less than 180
aq2016['condition']=aq2016['condition'].replace({False:np.nan}) # replacing the False values with null values, so that the count method in the next statement only counts the True values or the values corresponding to PM 2.5>180
selection1=aq2016.groupby('Month')['condition'].count() #Using the groupby method to calculate the number of days for each month that satisfy the condition(PM2.5>180)
#Repeating the above process for 2017, creating a dataframe with the number of days in each month where the PM2.5 concentration is >180
aq2017['Month']=pd.DatetimeIndex(aq2017['From Date']).month
aq2017['condition']=(aq2017['PM2.5']>=180 )
aq2017['condition']=aq2017['condition'].replace({False:np.nan})
selection2=aq2017.groupby('Month')['condition'].count()
#Repeating the above process for 2018, creating a dataframe with the number of days in each month where the PM2.5 concentration is >180
aq2018['Month']=pd.DatetimeIndex(aq2018['From Date']).month
aq2018['condition']=(aq2018['PM2.5']>=180 )
aq2018['condition']=aq2018['condition'].replace({False:np.nan})
selection3=aq2018.groupby('Month')['condition'].count()
#Repeating the above process for 2019, creating a dataframe with the number of days in each month where the PM2.5 concentration is >180
aq2019['Month']=pd.DatetimeIndex(aq2019['From Date']).month
aq2019['condition']=(aq2019['PM2.5']>=180 )
aq2019['condition']=aq2019['condition'].replace({False:np.nan})
selection4=aq2019.groupby('Month')['condition'].count()

现在,我们将所有 DataFrame 对象连接成一个对象(我们称之为“selectionc”),以获得 PM2.5>180μg/m3的每月天数的综合图,如下所示。

代码:

#selectionc data frame is a consolidated dataframe showing month-wise critical values of PM2.5 for every year
selectionc=pd.concat([selection1,selection1,selection3,selection4],axis=1)
#renaming the columns
selectionc.columns=['2016','2017','2018','2019']
selectionc

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

从该表中我们可以看出,第 1 个月(1 月)、第 11 个月(11 月)和第 12 个月(12 月)是四年中最关键的月份,因为这些月份的 PM 2.5 > 180 微克/立方米 3 的天数最多。

现在我们已经有了所有的数据,让我们使用下面的代码来可视化 PM 2.5 (图 8-7 )的关键日子。

代码:

#creating a bar chart representing number of days with critical levels of PM2.5(>180) concentrations
ax=selectionc.plot(kind='bar',figsize=(20,7),width=0.7,align='center',colormap='Paired')
bars = ax.patches
#creating patterns to represent each year
patterns =('-','x','/','O')
#ax.legend(loc='upper left', borderpad=1.5, labelspacing=1.5)
ax.legend((patterns),('2016','2017','2018','2019'))
hatches = [p for p in patterns for i in range(len(selectionc))]
#setting a pattern for each bar
for bar, hatch in zip(bars, hatches):
    bar.set_hatch(hatch)
#Labelling the months, the X axis and Y axis
ax.set_xticklabels(['Jan','Feb','Mar','Apr','May','June','July','Aug','Sept','Oct','Nov','Dec'],rotation=30)
ax.set_xlabel('Month',fontsize=12)
ax.set_ylabel('Number of days with critical levels of PM2.5',fontsize=12)
#Labelling the bars
for i in ax.patches:
    ax.text(i.get_x()-.003, i.get_height()+.3,
            round(i.get_height(),2), fontsize=10,
                color='dimgrey')
ax.legend()
ax.set_title("Number of days with critical levels of PM2.5 in each month of years 2016-19")

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-7

PM2.5–每年每月达到临界水平的天数

步骤 4:基于分析和可视化得出推论

从上图可以看出,大多数严重污染的日子出现在 1 月、11 月和 12 月。因此,根据过去四年记录的 PM 2.5 的日平均浓度,可能会在 1 月、11 月和 12 月对车辆交通、施工活动、柴油泵组的使用、从邻国进入德里的交通分流以及其他类似活动实施限制。为了对整个德里做出这样的决定,分析来自其他监测站的数据也是必要的。传播数据和分析上述内容将有助于人们提前为限制做好准备,并理解这些措施背后的基本原理。

前面演示的方法使用数据分析作为辅助空气质量管理的工具,使用位于德里 Netaji Subhas 技术研究所(NSIT)的一个监测站记录的数据。这一方法可以按照以下思路进行。

  1. 对第 2 号重复上述步骤,以显示占大部分天数的关键月份,其中无 2 记录值超过 24 小时标准。做这个练习将再次帮助确定面临两个参数污染水平的月份,PM 2.5 和 NO 2 和计划。

  2. 利用 NSIT 空气质量监测站的数据和其他监测站的类似数据,重复进行分析,以便可以对整个德里的干预措施进行规划。

案例研究 8-3:全球新冠肺炎案例分析

该数据集包含截至 2020 年 6 月 29 日新冠肺炎病例的地理分布数据(来源:欧洲疾病控制中心,来源 URL: https://www.ecdc.europa.eu/en/publications-data/download-todays-data-geographic-distribution-covid-19-cases-worldwide )。请注意,此链接包含最新数据,但我们使用的是 6 月 29 日的数据(本章开头的“技术要求”部分提供了数据集的链接)。

我们希望通过分析回答的问题包括:

  1. 哪些国家的死亡率最高,病例最多,死亡人数最多?

  2. 自疫情开始以来,每月的病例和死亡人数趋势如何?

  3. 在一些国家,强制实行封锁是为了帮助拉平曲线。这项措施有助于减少病例数吗?

步骤 1:导入数据并检查数据集的特征

使用 pd.read_excel 函数读取数据集并检查前五行(使用 head 方法):

代码:

df=pd.read_excel('COVID-19-geographic-distribution-worldwide-2020-06-29.xlsx')
df.head()

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

获取关于每列的数据类型和每列中非空值的数量的信息(使用 info 方法)。

代码:

df.info()

输出:

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 26562 entries, 0 to 26561
Data columns (total 11 columns):
dateRep                    26562 non-null datetime64[ns]
day                        26562 non-null int64
month                      26562 non-null int64
year                       26562 non-null int64
cases                      26562 non-null int64
deaths                     26562 non-null int64
countriesAndTerritories    26562 non-null object
geoId                      26455 non-null object
countryterritoryCode       26498 non-null object
popData2019                26498 non-null float64
continentExp               26562 non-null object
dtypes: datetime64ns, float64(1), int64(5), object(4)
memory usage: 2.2+ MB

获取每一列的汇总统计数据(使用 describe 方法)并获取 count、min、max、standard deviation 和 percentiles 的值:

代码:

df.describe()

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

第二步:数据争论

在这一步中,我们将:

  • 检查列的数据类型是否被准确识别。如果没有,更改数据类型:从 info 方法的输出中,我们看到所有列的数据类型都被正确地识别了。

  • 如有必要,重命名列:在下面的代码中,我们将重命名 DataFrame 的列。

代码:

  • 删除任何不必要的列或行:

    我们看到国家代码列在数据帧中出现了两次(具有两个不同的名称:“旧国家代码”和“国家代码”),因此我们删除了其中一列(“旧国家代码”):

#changing the column names
df.columns=['date','day','month','year','cases','deaths','country','old_country_code','country_code','population','continent']

代码:

  • 删除不会增加任何价值的无关数据:
#Dropping the redundant column name
df.drop(['old_country_code'],axis=1,inplace=True)

该数据帧中没有空格、特殊字符或任何其他无关字符。我们看到只有 2019 年 12 月一天的数据;因此,我们删除了本月的数据,并为剩余的 11 个月创建了一个新的数据框架(df1)。

代码:

  • 使用 isnaisnull 方法检查是否有空值,如果有,则采用适当的方法处理:
df1=df[df.month!=12]

计算空值的百分比:

代码:

df1.isna().sum().sum()/len(df1)

输出:

0.008794112096622004

由于空值的百分比小于 1%,我们在下面的步骤中删除空值。

代码:

  • 如果数据为分解格式,则汇总数据:
df1.dropna(inplace=True)

这个数据帧中的数据不是聚合格式,我们在这一步中使用 groupby 方法将其转换成这种格式。我们可以按国家、洲或日期分组。让我们按国名分组。

代码:

#Aggregating the data by country name
df_by_country=df1.groupby('country')['cases','deaths'].sum()
df_by_country

输出(仅显示前九行):

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

前面的输出显示了每个国家的病例和死亡人数的综合情况。

让我们在这个汇总数据框架中添加另一列——死亡率,它是死亡人数与病例数的比率。

代码:

#Adding a new column for the mortality rate which is the ratio of the number of deaths to cases
df_by_country['mortality_rate']=df_by_country['deaths']/df_by_country['cases']

第三步:可视化数据

在本案例研究的第一个可视化中,我们使用数据框架“df_by_country”中的聚合数据来显示死亡率最高的二十个国家(图 8-8 )。

代码:

#Sorting the values for the mortality rate in the descending order
plt.figure(figsize=(15,10))
ax=df_by_country['mortality_rate'].sort_values(ascending=False).head(20).plot(kind='bar')
ax.set_xticklabels(ax.get_xticklabels(), rotation=45, ha="right")
for p in ax.patches:
    ax.annotate(p.get_height().round(2),(p.get_x()+p.get_width()/2,p.get_height()),ha='center',va='bottom')
ax.set_xlabel("Country")
ax.set_ylabel("Mortality rate")
ax.set_title("Countries with highest mortality rates")

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-8

描述新冠肺炎死亡率最高的国家的条形图

在第二个视图中,我们使用饼图显示了新冠肺炎病例数量最多的十个国家,如图 8-9 所示。

代码:

#Pie chart showing the countries with the highest number of COVID cases
df_cases=df_by_country['cases'].sort_values(ascending=False)
ax=df_cases.head(10).plot(kind='pie',autopct='%.2f%%',labels=df_cases.index,figsize=(12,8))
ax.set_title("Top ten countries by case load")

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-9

按新冠肺炎案例描绘前十个国家/地区份额的饼图

在接下来的可视化中,我们使用条形图(图 8-10 )找出新冠肺炎疫情造成的人员伤亡最严重的五个国家。

代码:

#sorting the number of deaths in the descending order
plt.figure(figsize=(10,6))
ax=df_by_country['deaths'].sort_values(ascending=False).head(5).plot(kind='bar')
ax.set_xticklabels(ax.get_xticklabels(), rotation=45, ha="right")
for p in ax.patches:
    ax.annotate(p.get_height(),(p.get_x()+p.get_width()/2,p.get_height()),ha='center',va='bottom')
ax.set_title("Countries suffering the most fatalities from COVID-19")
ax.set_xlabel("Countries")
ax.set_ylabel("Number of deaths")

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-10

描述死亡人数最多的五个国家的条形图

现在,我们绘制线形图来观察新冠肺炎病例和死亡人数的月趋势。

为了绘制折线图,我们首先按月汇总数据,然后并排绘制两个折线图,显示病例数和死亡数,如图 8-11 所示。

代码:

df_by_month=df1.groupby('month')['cases','deaths'].sum()
fig=plt.figure(figsize=(15,10))
ax1=fig.add_subplot(1,2,1)
ax2=fig.add_subplot(1,2,2)
df_by_month['cases'].plot(kind='line',ax=ax1)
ax1.set_title("Total COVID-19 cases across months in 2020")
ax1.set_xlabel("Months in 2020")
ax1.set_ylabel("Number of cases(in million)")
df_by_month['deaths'].plot(kind='line',ax=ax2)
ax2.set_title("Total COVID-19 deaths across months in 2020")
ax2.set_xlabel("Months in 2020")
ax2.set_ylabel("Number of deaths")

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-11

锁定对平坦曲线的影响

许多国家实施了封锁,以遏制病例增加的趋势,并使曲线变平。我们现在来看看四个国家——印度、英国、意大利和德国——在三月份实施了封锁,看看这一措施是否达到了预期的效果。

首先,我们为每个国家创建 DataFrame 对象,按月汇总数据。

代码:

#Creating DataFrames for each country
#Monthwise aggregated data for Germany
df_germany=df1[df1.country=='Germany']
df_germany_monthwise=df_germany.groupby('month')['cases','deaths'].sum()
df_germany_grouped=df_germany_monthwise.reset_index()
#Monthwise aggregated data for UK
df_uk=df1[df1.country=='United_Kingdom']
df_uk_monthwise=df_uk.groupby('month')['cases','deaths'].sum()
df_uk_grouped=df_uk_monthwise.reset_index()
#Monthwise aggregated data for India
df_india=df1[df1.country=='India']
df_india_monthwise=df_india.groupby('month')['cases','deaths'].sum()
df_india_grouped=df_india_monthwise.reset_index()
#Monthwise aggregated data for Italy
df_italy=df1[df1.country=='Italy']
df_italy_monthwise=df_italy.groupby('month')['cases','deaths'].sum()
df_italy_grouped=df_italy_monthwise.reset_index()

现在,我们使用在前面步骤中创建的 DataFrame 对象来绘制这些国家的折线图,以查看 2020 年各月的病例数,如图 8-12 所示。

代码:

#Plotting the data for four countries (UK, India, Italy and Germany) where lockdowns were imposed
fig=plt.figure(figsize=(20,15))
ax1=fig.add_subplot(2,2,1)
df_uk_grouped.plot(kind='line',x='month',y='cases',ax=ax1)
ax1.set_title("Cases in UK across months")
ax2=fig.add_subplot(2,2,2)
df_india_grouped.plot(kind='line',x='month',y='cases',ax=ax2)
ax2.set_title("Cases in India across months")
ax3=fig.add_subplot(2,2,3)
df_italy_grouped.plot(kind='line',x='month',y='cases',ax=ax3)
ax3.set_title("Cases in Italy across months")
ax4=fig.add_subplot(2,2,4)
df_germany_grouped.plot(kind='line',x='month',y='cases',ax=ax4)
ax4.set_title("Cases in Germany across months")

输出:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 8-12

2020 年前 6 个月英国、印度、德国和意大利的总病例数

步骤 4:基于分析和可视化得出推论

  • 病例数:美国、巴西、俄罗斯、印度和英国的病例数最高。

  • 死亡人数:美国、巴西、英国、意大利和法国的死亡人数最高。

  • 死亡率:也门、圣马丁、法国、比利时和意大利的死亡率最高。

  • 趋势:

    • 病例总数一直在稳步增加,而死亡总数在 4 月份后有所下降。

    • 封锁的影响:我们分析了四个国家——印度、英国、德国和意大利——三月份实施了封锁。除印度之外,所有这些国家在实施封锁后,病例都出现了总体下降。在英国和德国,病例最初有所上升(在封锁的早期阶段),但在这次高峰之后开始下降。

摘要

  • 在本章中,我们查看了从结构化和非结构化数据源导入数据的各种案例研究。Pandas 支持从多种格式中读取数据。

  • requests 模块的功能使我们能够向 web 页面发送 HTTP 请求,并将页面内容存储在对象中。

  • 对案例进行典型的描述性或探索性数据分析,首先是构建我们希望通过分析回答的问题,并找出如何导入数据。在此之后,我们获得了关于数据的更多信息——各列的含义、度量单位、缺失值的数量、不同列的数据类型等等。

  • 数据争论是描述性或探索性数据分析的关键,在数据争论中,我们准备、清理和组织数据以使其适合分析。典型的活动包括删除无关数据、处理空值、重命名列、聚合数据和更改数据类型。

  • 一旦数据准备好并适合于分析,我们就使用 Matplotlib、Seaborn 和 Pandas 等库来可视化我们的数据,以帮助我们获得能够回答我们最初提出的问题的见解。

复习练习

问题 1(小型案例研究)

考虑下面网页上的第一个表格: https://en.wikipedia.org/wiki/Climate_of_South_Africa 。它包含南非各城市夏季和冬季的最高和最低温度(以摄氏度为单位)的数据。

  • 使用 requests 模块中的适当方法向该 URL 发送一个 get 请求,并将该页面上第一个表中的数据存储在 Pandas DataFrame 中。

  • 将列重命名为:“城市”、“夏季(最大值)”、“夏季(最小值)”、“冬季(最大值)”和“冬季(最小值)”。

  • 将“Winter(min)”列第一行的负值替换为 0,并将该列的数据类型转换为 int64

  • 绘制一个图表,显示南非夏季最热的城市(使用 Summer(max)列)。

  • 绘制一个图表,显示南非冬季最冷的城市(使用冬季(分钟)列)。

问题 2

十名雇员(缩写为 A–J)的周薪如下:100,120,80,155,222,400,199,403,345,290。将每周工资存储在数据框架中。

  • 绘制一个条形图,以降序显示工资

  • 使用注释方法标记条形图中的每个条形

问题 3

| 1.用于发送 HTTP 请求的模块 | a.网页的 URL | | 2.*获取*的方法 | b.请求文本 | | 3.传递给 *get* 方法的参数 | c.使用给定的 URL 获取信息 | | 4.包含 Unicode 内容的属性 | d.要求 |

问题 4

read_html Pandas 函数读取

  1. 网页上的所有 HTML 内容

  2. 网页中的 HTML 标签

  3. 作为 DataFrame 对象列表的所有 HTML 表

  4. 网页中的 HTML 列表

答案

问题 1

代码:

import requests
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
%matplotlib inline
url='https://en.wikipedia.org/wiki/Climate_of_South_Africa'
#making a get request to the URL
req = requests.get(url)
#storing the HTML data in a DataFrame
data = pd.read_html(req.text)
#Reading the first table
df=data[0]
#Renaming the columns
df.columns=['City','Summer(max)','Summer(min)','Winter(max)','Winter(min)']
#Replacing the negative value with 0
df['Winter(min)']=df['Winter(min)'].str.replace(r"–2","0")
#Changing the data type from object to int64
df['Winter(min)']=df['Winter(min)'].astype('int64',errors='ignore')
#Using the city as the index to facilitate plotting
df1=df.set_index('City')
#Hottest five cities during Summer
df1['Summer(max)'].sort_values(ascending=False).head(5).plot(kind='bar')
#Coldest five cities during Winter
df1['Winter(min)'].sort_values().head(5).plot(kind='bar')

问题 2

代码:

numbers=pd.Series([100,120,80,155,222,400,199,403,345,290])
#converting the data to a DataFrame
numbers.to_frame()
#labelling the index
numbers.index=list('ABCDEFGHIJ')
#labelling the column
numbers.columns=['Wages']
ax=numbers.sort_values(ascending=False).plot(kind='bar')
#labelling the bars
for p in ax.patches:
    ax.annotate(p.get_height(),(p.get_x()+p.get_width()/2,p.get_height()),ha='center',va='bottom')

问题 3

一维;2-c;3-a;4-b

问题 4

选项 3

网页上每个表格的内容都存储在单独的 DataFrame 对象中。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值