PySpark 机器学习教程(一)

原文:Machine Learning with PySpark

协议:CC BY-NC-SA 4.0

一、数据的演变

在理解 Spark 之前,有必要理解我们今天所目睹的这种数据洪流背后的原因。在早期,数据是由工人生成或积累的,因此只有公司的员工将数据输入系统,数据点非常有限,只能捕获几个领域。然后出现了互联网,使用互联网的每个人都可以很容易地获取信息。现在,用户有权输入和生成自己的数据。这是一个巨大的转变,因为互联网用户的数量呈指数级增长,这些用户创建的数据甚至以更高的速度增长。例如:登录/注册表单允许用户填写自己的详细信息,在各种社交平台上上传照片和视频。这导致了巨大的数据生成,并且需要一个快速且可扩展的框架来处理如此大量的数据。

数据生成

如图 1-1 所示,随着机器生成和累积数据,这种数据生成现已进入下一个阶段。我们周围的每一个设备都在捕捉数据,比如汽车、建筑、手机、手表、飞机引擎。它们嵌入了多个监测传感器,每秒记录数据。该数据甚至比用户生成的数据更大。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 1-1

数据 进化

早些时候,当数据仍处于企业级别时,关系数据库足以满足系统需求,但随着数据规模在过去几十年中呈指数级增长,处理大数据的结构发生了变化,这就是 Spark 的诞生。传统上,我们将数据带到处理器中进行处理,但现在数据太多,处理器不堪重负。现在,我们将多个处理器用于数据处理。这就是所谓的并行处理,因为数据是在许多地方同时处理的。

让我们看一个例子来理解并行处理。假设在一条特定的高速公路上,只有一个收费站,每辆车必须排成一排才能通过收费站,如图 1-2 所示。如果平均每辆车通过收费站需要 1 分钟,那么八辆车总共需要 8 分钟。对于 100 辆车,需要 100 分钟。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 1-2

单线程处理

但是想象一下,如果不是一个收费站,而是在同一条高速公路上有八个收费站,车辆可以使用其中的任何一个通过。如图 1-3 所示,由于现在不存在依赖性,所有 8 辆车通过收费站总共只需要 1 分钟。我们已经将操作并行化。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 1-3

并行处理

并行或分布式计算的工作原理类似,因为它将任务并行化,并在最后累积最终结果。Spark 是一个以高速并行处理来处理海量数据集的框架,是一个健壮的机制。

火花

Apache Spark 于 2009 年开始作为加州大学伯克利分校 AMPLab 的一个研究项目,并于 2010 年初开源,如图 1-4 所示。从此,再也没有回头。2016 年,Spark 发布深度学习 TensorFrames。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 1-4

火花 进化

在引擎盖下,Spark 使用了一种不同的数据结构,称为 RDD(弹性分布式数据集)。从某种意义上说,它是有弹性的,因为它们有能力在执行过程中重新创建任何时间点。因此,RDD 用最后一个创建了一个新的 RDD,并且在出现任何错误的情况下都有能力进行重建。它们也是不可变的,因为原始 rdd 保持不变。由于 Spark 是一个分布式框架,它在主节点和工作节点设置上工作,如图 1-5 所示。执行任何活动的代码首先写在 Spark Driver 上,并在数据实际驻留的工作节点之间共享。每个 worker 节点都包含实际执行代码的执行器。集群管理器为下一个任务分配检查各种工作节点的可用性。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 1-5

火花 运转正常

Spark 大受欢迎的主要原因是因为它非常容易用于数据处理、机器学习和数据流;相对来说,它非常快,因为它完成了所有内存中的计算。由于 Spark 是一个通用的数据处理引擎,它可以很容易地用于各种数据源,如 HBase ,Cassandra,亚马逊 S3,等。Spark 为用户提供了四种语言选项:Java、Python、Scala 和 r。

火花核心

Spark 核心是 Spark 最基本的构建模块,如图 1-6 所示。它是 Spark 最高功能特性的支柱。Spark Core 支持驱动数据并行和分布式处理的内存计算。Spark 的所有功能都建立在 Spark Core 之上。Spark 核心负责管理任务、I/O 操作、容错和内存管理等。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 1-6

星火 建筑

火花部件

让我们看看组件。

Spark SQL

该组件主要处理结构化数据处理。关键思想是获取更多关于数据结构的信息来执行额外的优化。它可以被认为是一个分布式 SQL 查询引擎。

火花流

该组件以可扩展和容错的方式处理实时流数据。它使用微批处理来读取和处理传入的数据流。它创建小批量的流数据,执行批处理,并将其传递给一些文件存储或实时仪表板。Spark Streaming 可以从 Kafka 和 Flume 等多个来源获取数据。

Spark MLlib(消歧义)

该组件用于以分布式方式在大数据上构建机器学习模型。当数据量巨大时,使用 Python 的 scikit learn 库构建 ML 模型的传统技术面临许多挑战,而 MLlib 的设计方式提供了大规模的特征工程和机器学习。MLlib 具有为分类、回归、聚类、推荐系统和自然语言处理实现的大多数算法。

火花图形 x/图形框架

该组件擅长图形分析和图形并行执行。图表框架可用于理解潜在的关系,并使数据的洞察力可视化。

设置环境

本章的这一节将介绍如何在系统上设置 Spark 环境。基于操作系统,我们可以选择在系统上安装 Spark 的选项。

Windows 操作系统

要下载的文件:

  1. Anaconda (Python 3.x)

  2. Java(如果没有安装)

  3. Apache Spark 最新版本

  4. Winutils.exe

蟒蛇装置

从链接 https://www.anaconda.com/download/#windows 下载 Anaconda 发行版并安装在您的系统上。在安装它的时候需要注意的一点是,启用将 Anaconda 添加到 path 环境变量的选项,以便 Windows 可以在启动 Python 时找到相关文件。

一旦安装了 Anaconda,我们就可以使用命令提示符检查 Python 在系统上是否工作正常。您可能还想通过尝试以下命令来检查 Jupyter 笔记本是否也打开了:

[In]: Jupyter notebook

Java 安装

访问 https://www.java.com/en/download/link 下载 Java(最新版本)并安装 Java。

火花装置

在您选择的位置创建一个名为 spark 的文件夹。假设我们决定在 D:/ drive 中创建一个名为 spark 的文件夹。转到 https://spark.apache.org/downloads.html 并选择您想要安装在机器上的 Spark 发布版本。选择“为 Apache Hadoop 2.7 和更高版本预构建”的包类型选项请继续下载。tgz 文件复制到我们之前创建的 spark 文件夹中,并提取所有文件。您还会发现在解压缩后的文件中有一个名为 bin 的文件夹。

下一步是下载 winutils.exe,为此你需要去链接 https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/winutils.exe 并下载。exe 文件并保存到解压后的 spark 文件夹的 bin 文件夹中(D:/spark/spark_unzipped/bin)。

现在我们已经下载了所有需要的文件,下一步是添加环境变量以便使用 pyspark。

转到 Windows 的开始按钮,搜索“为您的帐户编辑环境变量”让我们继续为 winutils 创建一个新的环境变量,并为其分配路径。单击 new,创建一个名为 HADOOP_HOME 的新变量,并在变量值占位符中传递文件夹的路径(D:/spark/spark_unzipped)。

我们对 spark 变量重复相同的过程,创建一个名为 SPARK_HOME 的新变量,并在变量值占位符中传递 SPARK 文件夹的路径(D:/spark/spark_unzipped)。

让我们添加几个变量来使用 Jupyter notebook。创建一个名为 PYSPARK_DRIVER_PYTHON 的新变量,并在变量值占位符中传递 Jupyter。创建另一个名为 PYSPARK_DRIVER_PYTHON_OPTS 的变量,并在值字段中传递笔记本。

在同一个窗口中,查找 PATH 或 Path 变量,点击 edit,向其中添加 D:/spark/spark_unzipped/bin。在 Windows 7 中,您需要用分号分隔 Path 中的值。

我们还需要将 Java 添加到环境变量中。因此,创建另一个变量 JAVA_HOME,并传递安装 JAVA 的文件夹的路径。

我们可以打开 cmd 窗口,运行 Jupyter notebook。

[In]: Import findspark
[In]: findspark.init()

[In]:import pyspark
[In]:from pyspark.sql import SparkSession
[In]: spark=SparkSession.builder.getOrCreate()

IOS

假设我们已经在 Mac 上安装了 Anaconda 和 Java,我们可以下载最新版本的 Spark 并保存到主目录。我们可以打开终端,使用

[In]:  cd ~

将下载的 spark 压缩文件复制到主目录,并解压缩文件内容。

[In]: mv /users/username/Downloads/ spark-2.3.0-bin-hadoop2.7 /users/username

[In]: tar -zxvf spark-2.3.0-bin-hadoop2.7.tgz

验证您是否有一个. bash_profile。

[In]: ls -a

接下来,我们将编辑。bash_profile,这样我们就可以在任何目录下打开 Spark 笔记本。

[In]: nano .bash_profile

将下面的项目粘贴到 bash 配置文件中。

export SPARK_PATH=~/spark-2.3.0-bin-hadoop2.7
export PYSPARK_DRIVER_PYTHON="jupyter"
export PYSPARK_DRIVER_PYTHON_OPTS="notebook"

alias notebook='$SPARK_PATH/bin/pyspark --master local[2]'

[In]: source  .bash_profile

现在尝试在终端中打开 Jupyter notebook,导入 Pyspark 使用。

码头工人

我们可以使用 Jupyter 存储库中的映像直接将 PySpark 与 Docker 一起使用,但这需要在您的系统上安装 Docker。

大数据

Databricks 还提供了一个免费的社区版帐户,并提供了 6 GB 的 PySpark 集群。

结论

在这一章中,我们研究了 Spark 体系结构、各种组件以及设置本地环境以使用 Spark 的不同方式。在接下来的章节中,我们将深入 Spark 的各个方面,并使用它建立一个机器学习模型。

二、机器学习导论

当我们出生时,我们没有能力做任何事情。那时候我们连头都抬不直,但最终我们开始学习。起初,我们都笨手笨脚,犯很多错误,摔倒,撞到头很多次,但慢慢地学会了坐、走、跑、写和说。作为一种内置的机制,我们不需要大量的例子来学习一些东西。例如,仅仅通过看到路边的两到三所房子,我们就可以很容易地学会识别一所房子。只要看到周围有几辆汽车和自行车,我们就能很容易地区分汽车和自行车。我们很容易区分猫和狗。尽管对我们人类来说这看起来非常简单和直观,但对机器来说这可能是一项艰巨的任务。

机器学习是一种机制,通过这种机制,我们试图让机器学习,而不用显式地对它们进行编程。简单来说,我们向机器展示了大量猫和狗的图片,只够机器学习两者之间的差异并正确识别新图片。这里的问题可能是这样的:学习像区分猫和狗这样简单的事情需要这么多的图片吗?机器面临的挑战是,它们能够仅从一些图像中学习整个模式或抽象特征;他们需要足够多的例子(在某些方面有所不同)来学习尽可能多的特征,以便能够做出正确的预测,而作为人类,我们有这种惊人的能力在不同的层次上进行抽象,并容易识别物体。这个例子可能是针对图像识别的,但是对于其他应用程序,机器也需要大量的数据来学习。

机器学习是过去几年谈论最多的话题之一。越来越多的企业希望采用信息技术来保持竞争优势;然而,很少有人真正拥有合适的资源和适当的数据来实现它。在本章中,我们将涵盖机器学习的基本类型,以及企业如何从使用机器学习中受益。

互联网上有大量关于机器学习的定义,尽管如果我可以尝试用简单的术语来描述,它看起来会像这样:

  1. 机器学习使用统计技术,有时使用高级算法来进行预测或学习数据中的隐藏模式,并从本质上取代基于规则的系统,使数据驱动的系统更加强大。

让我们详细地过一遍这个定义。顾名思义,机器学习就是让机器学习,尽管当我们谈论让机器学习时,会涉及到许多组件。

一个组成部分是数据,它是任何模型的支柱。机器学习在相关数据上蓬勃发展。数据中的信号越多,预测就越准确。机器学习可以应用于不同的领域,如金融、零售、医疗保健和社交媒体。另一部分是算法。基于我们试图解决的问题的性质,我们相应地选择算法。最后一部分由硬件和软件组成。Spark 和 Tensorflow 等开源分布式计算框架的出现使得机器学习对每个人来说都变得更加容易。当场景有限时,基于规则的系统就出现了,所有的规则都可以手动配置来处理这些情况。最近,这种情况有所改变,特别是场景数部分。例如,欺诈发生的方式在过去几年中发生了巨大的变化,因此为这种情况创建手动规则实际上是不可能的。因此,在从数据中学习并适应新数据并做出相应决策的场景中,机器学习正在发挥作用。事实证明,这对每个人都有巨大的商业价值。

让我们看看不同类型的机器学习及其应用。我们可以将机器学习分为四大类:

  1. 监督机器学习

  2. 无监督机器学习

  3. 半监督机器学习

  4. 强化学习

上述每个类别都有特定的用途,使用的数据也互不相同。归根结底,机器学习是从数据(历史或实时)中学习,并基于模型训练做出决策(离线或实时)。

监督机器学习

这是机器学习的主要类别,为企业带来了大量应用和价值。在监督学习中,我们在标记的数据上训练我们的模型。通过标记,它意味着数据有正确的答案或结果。让我们举一个例子来说明监督学习。如果有一家金融公司希望在接受他们的贷款请求之前根据他们的档案筛选客户,机器学习模型将根据历史数据进行训练,这些数据包含有关过去客户的档案和客户是否拖欠贷款的标签列的信息。样本数据如表 2-1 所示。

表 2-1

客户详细信息

|

客户 ID

|

年龄

|

性别

|

薪水

|

贷款数量

|

作业类型

|

贷款违约

|
| — | — | — | — | — | — | — |
| 到 23 号 | Thirty-two | M | 80K | one | 永久的 | 不 |
| AX43 | Forty-five | F | 10.5 万 | Two | 永久的 | 不 |
| BG76 | Fifty-one | M | 75K | three | 合同 | 是 |

在监督学习中,模型从也有标签/结果/目标列的训练数据中学习,并使用它对看不见的数据进行预测。在上面的示例中,年龄、性别和薪金等列被称为属性或功能,而最后一列(贷款违约)被称为目标或标签,模型试图对其进行预测以获取不可见的数据。一个包含所有这些值的完整记录称为观察值。该模型需要足够多的观察数据来进行训练,然后根据类似的数据进行预测。在监督学习中,模型至少需要一个输入要素/属性才能与输出列一起接受训练。机器能够从训练数据中学习的原因是因为潜在的假设,即这些输入特征中的一些单独地或组合地对输出列有影响(贷款违约)。

有许多应用程序使用监督学习设置,例如:

案例 1:是否有特定的客户会购买该产品?

案例 2:访问者是否会点击广告?

案例 3:这个人是否会拖欠贷款?

案例 4:给定房产的预期售价是多少?

案例五:如果这个人是不是恶性肿瘤?

以上是监督学习的一些应用,还有很多。使用的方法有时会因模型试图预测的输出类型而异。如果目标标签是分类类型,则它属于分类类别;如果目标特征是一个数值,它将属于回归类别。一些受监督的 ML 算法如下:

  1. 线性回归

  2. 逻辑回归

  3. 支持向量机

  4. 朴素贝叶斯分类器

  5. 决策树

  6. 组装方法

监督学习的另一个特性是可以评估模型的性能。基于模型的类型(分类/回归/时间序列),可以应用评估指标,并且可以测量性能结果。这主要通过将训练数据分成两组(训练集和验证集)并在训练集上训练模型并在验证集上测试其性能来实现,因为我们已经知道验证集的正确标签/结果。然后,我们可以更改超参数(在后面的章节中介绍)或使用特征工程引入新的特征来提高模型的性能。

无监督机器学习

在无监督学习中,我们在类似种类的数据上训练模型,除了这个数据集不包含任何标签或结果/目标列。本质上,我们在没有任何正确答案的情况下根据数据训练模型。在无监督学习中,机器试图在数据中找到隐藏的模式和有用的信号,这些数据可以在以后用于其他应用。其中一个用途是在客户数据中寻找模式,并将客户分组到代表某些属性的不同聚类中。例如,我们来看看表 2-2 中的一些客户数据。

表 2-2

客户详细信息

|

客户 ID

|

歌曲类型

|
| — | — |
| AS12 | 浪漫的 |
| BX54 | 嘻哈音乐 |
| BX54 | 岩石 |
| AS12 | 岩石 |
| CH87 | 嘻哈音乐 |
| CH87 | 经典的 |
| AS12 | 岩石 |

在上面的数据中,我们有客户和他们喜欢的音乐类型,没有任何目标或输出列,只有客户和他们的音乐偏好数据。

我们可以使用无监督学习,将这些客户分组到有意义的集群中,以更多地了解他们的群体偏好,并采取相应的行动。我们可能必须将数据集调整为其他形式,以实际应用无监督学习。我们简单地计算每个客户的价值,看起来就像表 2-3 所示。

表 2-3

客户详细信息

|

客户 ID

|

浪漫的

|

嘻哈音乐

|

岩石

|

经典的

|
| — | — | — | — | — |
| AS12 | one | Zero | Two | Zero |
| BX54 | Zero | one | one | Zero |
| CH87 | Zero | one | Zero | one |

现在,我们可以形成一些有用的用户组,并应用这些信息来推荐和制定基于集群的策略。我们当然可以提取的信息是,哪些客户在偏好方面是相似的,并且可以从内容的角度作为目标。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 2-1

聚类后无监督学习

如图 2-1 所示,聚类 A 可以属于只喜欢摇滚的客户,聚类 B 可以属于喜欢浪漫&古典音乐的人,最后一个聚类可能属于嘻哈和摇滚爱好者。无监督学习的另一个用途是发现是否有任何异常活动或异常检测。无监督学习有助于确定数据集中的例外。大多数时候,无监督学习可能非常棘手,因为没有清晰的组或多个组之间的重叠值,这不能给出聚类的清晰图像。例如,如图 2-2 所示,数据中没有清晰的分组,无监督学习无法帮助形成真正有意义的数据点聚类。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 2-2

重叠集群

有许多应用程序使用无监督学习设置,例如

案例 1:总客户群中有哪些不同的群体?

案例二:这个交易是异常还是正常?

无监督学习中使用的算法有

  1. 聚类算法(K 均值,分层)

  2. 维度缩减技术

  3. 主题建模

  4. 关联规则挖掘

无监督学习的整个思想是发现和找出模式,而不是做出预测。因此,无监督学习主要在两个方面不同于有监督学习。

  1. 没有标注的训练数据,也没有预测。

  2. 模型在无监督学习中的性能无法评估,因为没有标签或正确答案。

半监督学习

顾名思义,半监督学习介于监督学习和非监督学习之间。事实上,它使用了这两种技术。这种类型的学习主要与我们处理混合类型的数据集的场景相关,这种数据集包含有标签和无标签的数据。有时它只是完全未标记的数据,但我们手动标记了其中的一部分。可以对这一小部分标记数据使用半监督学习来训练模型,然后使用它来标记数据的其他剩余部分,然后可以将其用于其他目的。这也称为伪标记,因为它标记了未标记的数据。举一个简单的例子,我们有很多来自社交媒体的不同品牌的图片,其中大部分都没有标签。现在使用半监督学习,我们可以手动标记这些图像中的一些,然后在标记的图像上训练我们的模型。然后,我们使用模型预测来标记剩余的图像,以将未标记的数据完全转换为标记的数据。

半监督学习的下一步是在整个标记数据集上重新训练模型。它提供的优势是模型在更大的数据集上进行训练,这在早期是不存在的,现在更健壮,更擅长预测。另一个优势是半监督学习节省了大量人工标记数据的精力和时间。这样做的另一面是,伪标记很难获得高性能,因为它使用一小部分标记数据来进行预测。然而,这仍然是比手动标记数据更好的选择,手动标记数据可能非常昂贵且耗时。

强化学习

是第四种也是最后一种学习,在数据使用及其预测方面略有不同。强化学习本身就是一个很大的研究领域,整本书都可以围绕它来写。我们不会对此进行太深入的探讨,因为这本书更侧重于使用 PySpark 构建机器学习模型。其他类型的学习和强化学习之间的主要区别是,我们需要数据,主要是历史数据来训练模型,而强化学习是在奖励系统上工作的。它主要是基于代理采取的改变其状态以最大化回报的某些行动的决策。让我们使用可视化将它分解为单个元素。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

  • 自主主体:这是整个学习过程中负责采取行动的主要角色。如果是一个游戏,代理采取行动来完成或达到最终目标。

  • 操作:这些是代理为了在任务中前进可以采取的一组可能的步骤。每个动作都会对代理的状态产生一些影响,并且可能导致奖励或惩罚。例如,在网球比赛中,动作可能是发球、回球、向左或向右移动等。

  • 奖励:这是强化学习取得进步的关键。奖励使代理能够根据积极的奖励或惩罚采取行动。它是一种反馈机制,区别于传统的监督和非监督学习技术

  • 环境:这是代理可以参与的领域。环境决定了行动者采取的行动是奖励还是惩罚。

  • 状态:代理在任何给定时间点所处的位置定义了代理的状态。为了前进或达到最终目标,代理人必须不断地朝积极的方向改变状态,以使回报最大化。

强化学习的独特之处在于,有一个反馈机制,基于总贴现报酬最大化来驱动代理人的下一个行为。一些使用强化学习的突出应用是自动驾驶汽车、优化能耗和游戏领域。然而,它也可以用来建立推荐系统。

结论

在这一章中,我们简要地看了不同类型的机器学习方法和一些应用。在接下来的章节中,我们将使用 PySpark 详细研究监督和非监督学习。

三、数据处理

本章试图涵盖使用 PySpark 处理和分析数据的所有主要步骤。尽管我们在本节中考虑的数据规模相对较小,但是使用 PySpark 处理大型数据集的步骤完全相同。数据处理是执行机器学习所需的关键步骤,因为我们需要清理、过滤、合并和转换我们的数据,使其成为所需的形式,以便我们能够训练机器学习模型。我们将利用多个 PySpark 函数来执行数据处理。

加载和读取数据

假设我们已经安装了 Spark 2.3 版,为了使用 Spark,我们首先从导入和创建SparkSession对象开始。

[In]: from pyspark.sql import SparkSession
[In]: spark=SparkSession.builder.appName('data_processing').getOrCreate()
[In]: df=spark.read.csv('sample_data.csv',inferSchema=True,header=True)

我们需要确保数据文件位于我们打开 PySpark 的同一个文件夹中,或者我们可以指定数据所在文件夹的路径以及数据文件名。我们可以用 PySpark 读取多种数据文件格式。我们只需要根据文件格式(csv、JSON、parquet、table、text)更新读取格式参数。对于制表符分隔的文件,我们需要在读取文件时传递一个额外的参数来指定分隔符(sep='\t')。将参数inferSchema设置为 true 表示 Spark 将在后台自己推断数据集中值的数据类型。

上面的命令使用示例数据文件中的值创建了一个 spark 数据帧。我们可以认为这是一个带有列和标题的表格格式的 Excel 电子表格。我们现在可以在这个 Spark 数据帧上执行多个操作。

[In]: df.columns
[Out]: ['ratings', 'age', 'experience', 'family', 'mobile']

我们可以使用“columns”方法打印数据帧中的列名列表。如我们所见,我们的数据框架中有五列。为了验证列数,我们可以简单地使用 Python 的length函数。

[In]: len(df.columns)
[Out]: 5

我们可以使用count方法来获得数据帧中的记录总数:

[In]: df.count
[Out] : 33

我们的数据框架中共有 33 条记录。在进行预处理之前,最好打印出数据帧的形状,因为它给出了行和列的总数。Spark 中没有任何检查数据形状的直接函数;相反,我们需要结合列的数量和长度来打印形状。

[In]: print((df.count),(len(df.columns))
[Out]: ( 33,5)

查看数据框中列的另一种方法是 spark 的printSchema方法。它显示了列的数据类型以及列名。

[In]:df.printSchema()
[Out]: root
 |-- ratings: integer (nullable = true)
 |-- age: integer (nullable = true)
 |-- experience: double (nullable = true)
 |-- family: double (nullable = true)
 |-- Mobile: string (nullable = true)

nullable属性指示对应的列是否可以采用空值(true)或不采用空值(false)。我们还可以根据需要改变列的数据类型。

下一步是先睹为快,查看数据帧的内容。我们可以使用 Spark show方法来查看数据帧的顶行。

[In]: df.show(3)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

自从我们在show方法中传递了值 5 之后,我们只能看到五条记录和所有的五列。为了只查看某些列,我们必须使用select方法。让我们只查看两列(年龄和手机):

[In]: df.select('age','mobile').show(5)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

Select函数仅从数据帧中返回两列和五条记录。在本章中,我们将继续使用select函数。下一个要使用的函数是用于分析数据帧的describe。它返回数据帧中每一列的统计度量。我们将再次使用 show 和 describe,因为 describe 将结果作为另一个数据帧返回。

[In]: df.describe().show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

对于数字列,它返回中心的度量值,并随计数一起传播。对于非数字列,它显示计数以及最小值和最大值,这些值基于这些字段的字母顺序,并不表示任何实际意义。

添加新列

我们可以使用 spark 的withColumn函数在 dataframe 中添加一个新列。让我们通过使用age列向我们的数据框架添加一个新列(10 年后的年龄)。我们简单地给age列中的每个值加上 10 年。

[In]: df.withColumn("age_after_10_yrs",(df["age"]+10)).show(10,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

正如我们所观察到的,我们在数据帧中有了一个新列。show函数帮助我们查看新的列值,但是为了将新的列添加到数据帧中,我们需要将其分配给一个现有的或新的数据帧。

[In]: df= df.withColumn("age_after_10_yrs",(df["age"]+10))

这一行代码确保更改发生,并且 dataframe 现在包含新列(10 年后的年龄)。

要将age列的数据类型从 integer 改为 double,我们可以使用 Spark 中的cast方法。我们需要从pyspark.types:导入DoubleType

[In]: from pyspark.sql.types import StringType,DoubleType
[In]: df.withColumn('age_double',df['age'].cast(DoubleType())).show(10,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

因此,上面的命令创建了一个新列(age_double),它将年龄值从整数转换为双精度类型。

过滤数据

根据条件筛选记录是处理数据时的常见要求。这有助于清理数据并仅保留相关记录。PySpark 中的过滤非常简单,可以使用filter函数来完成。

条件 1

这是仅基于数据帧的一列的最基本的过滤类型。假设我们只想获取“Vivo”手机的记录:

[In]: df.filter(df['mobile']=='Vivo').show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们有所有Mobile列有‘Vivo’值的记录。在筛选记录后,我们可以进一步只选择几列。例如,如果我们想查看使用“Vivo”手机的人的年龄和评级,我们可以在过滤记录后使用select功能来完成。

[In]: df.filter(df['mobile']=='Vivo').select('age','ratings','mobile').show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

条件 2

这涉及基于多列的筛选,并且仅当满足所有条件时才返回记录。这可以通过多种方式实现。比方说,我们只想过滤“Vivo”用户和那些拥有 10 年以上经验的用户。

[In]: df.filter(df['mobile']=='Vivo').filter(df['experience'] >10).show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

为了将这些条件应用于各个列,我们使用了多个筛选函数。还有另一种方法可以达到同样的效果,如下所述。

[In]: df.filter((df['mobile']=='Vivo')&(df['experience'] >10)).show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

列中的不同值

如果我们想要查看任何 dataframe 列的不同值,我们可以使用distinct方法。让我们查看数据帧中 m obile列的不同值。

[In]: df.select('mobile').distinct().show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

为了获得列中不同值的计数,我们可以简单地使用countdistinct函数。

[In]: df.select('mobile').distinct().count()
[Out]: 5

分组数据

Grouping is a非常有用的理解数据集各个方面的方法。它有助于根据列值对数据进行分组,并提取洞察力。它还可以与其他多种功能一起使用。让我们看一个使用数据帧的groupBy方法的例子。

[In]: df.groupBy('mobile').count().show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

这里,我们根据 m obile列中的分类值对所有记录进行分组,并使用count方法计算每个类别的记录数。我们可以通过使用orderBy方法按照定义的顺序对这些结果进行排序,从而进一步细化这些结果。

[In]: df.groupBy('mobile').count().orderBy('count',ascending=False).show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

现在,mobiles的计数根据每个类别按降序排序。

我们还可以应用groupBy方法来计算统计度量,例如每个类别的平均值、总和、最小值或最大值。让我们看看其余列的平均值是多少。

[In]: df.groupBy('mobile').mean().show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

mean方法给出了每个手机品牌的平均年龄、评级、体验和家庭规模栏。我们也可以通过使用sum方法和groupBy来获得每个移动品牌的总和。

[In]: df.groupBy('mobile').sum().show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

现在让我们来看看每个手机品牌的用户数据的最小值和最大值。

[In]: df.groupBy('mobile').max().show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

[In]:df.groupBy('mobile').min().show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

聚集

我们也可以使用agg函数来获得与上面类似的结果。让我们使用 PySpark 中的agg函数来简单地计算每个手机品牌的总体验。

[In]: df.groupBy('mobile').agg({'experience':'sum'}).show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

因此,这里我们只需使用agg函数,并传递我们希望进行聚合的列名(experience)。

用户定义函数(UDF)

UDF 广泛用于数据处理中,对数据帧进行某些变换。PySpark 有两种 UDF:传统的 UDF 和熊猫 UDF。熊猫 UDF 在速度和处理时间方面更强大。我们将看到如何在 PySpark 中使用这两种类型的 UDF。首先,我们必须从 PySpark 函数中导入udf

[In]: from pyspark.sql.functions import udf

现在,我们可以通过使用 lambda 或典型的 Python 函数来应用基本的 UDF。

传统 Python 函数

我们创建了一个简单的 Python 函数,它根据移动品牌返回价格范围的类别:

[In]:
def price_range(brand):
    if brand in ['Samsung','Apple']:
        return 'High Price'
    elif brand =='MI':
        return 'Mid Price'
    else:
        return 'Low Price'

在下一步中,我们创建一个 UDF ( brand_udf),它使用这个函数并捕获它的数据类型,以便将这个转换应用到 dataframe 的移动列上。

[In]: brand_udf=udf(price_range,StringType())

在最后一步,我们将udf(brand_udf)应用到 dataframe 的 m obile列,并创建一个具有新值的新列(price_range)。

[In]: df.withColumn('price_range',brand_udf(df['mobile'])).show(10,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

使用 Lambda 函数

不用定义传统的 Python 函数,我们可以利用 lambda 函数,用一行代码创建一个 UDF,如下所示。我们根据用户的年龄将年龄列分为两组(youngsenior)。

[In]: age_udf = udf(lambda age: "young" if age <= 30 else "senior", StringType())
[In]: df.withColumn("age_group", age_udf(df.age)).show(10,False) 

[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

熊猫 UDF(矢量化 UDF)

如前所述,熊猫 UDF 比它们的同类更快更高效。有两种类型的熊猫 UDF:

  • 数量

  • 分组地图

使用熊猫 UDF 非常类似于使用基本的 UDF。我们必须首先从 PySpark 函数导入pandas_udf,并将其应用于任何要转换的特定列。

[In]: from pyspark.sql.functions import pandas_udf

在本例中,我们定义了一个 Python 函数,用于计算假设预期寿命为 100 岁的用户的剩余寿命。这是一个非常简单的计算:我们使用 Python 函数从 100 中减去用户的年龄。

[In]:
def remaining_yrs(age):
    yrs_left=(100-age)
   return yrs_left

[In]: length_udf = pandas_udf(remaining_yrs, IntegerType())

一旦我们使用 Python 函数(remaining_yrs)创建了熊猫 UDF (length _udf),我们就可以将其应用到age列并创建一个新列 yrs_left。

[In]:df.withColumn("yrs_left", length_udf(df['age'])).show(10,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

熊猫 UDF(多列)

我们可能会遇到这样的情况,我们需要多个列作为输入来创建一个新列。因此,下面的例子展示了在数据帧的多列上应用熊猫 UDF 的方法。在这里,我们将创建一个新列,它只是 ratings 和 experience 列的乘积。像往常一样,我们定义一个 Python 函数,并计算两列的乘积。

[In]:
def prod(rating,exp):
    x=rating*exp
    return x
[In]: prod_udf = pandas_udf(prod, DoubleType())

创建熊猫 UDF 后,我们可以将它应用于两个列(ratingsexperience)以形成新列(product)。

[In]:df.withColumn("product",prod_udf(df['ratings'],df['experience'])).show(10,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

删除重复值

我们可以使用dropDuplicates方法从数据帧中删除重复的记录。该数据帧中的记录总数为 33,但它还包含 7 个重复记录,这可以通过删除这些重复记录来轻松确认,因为我们只剩下 26 行。

[In]: df.count()
[Out]: 33
[In]: df=df.dropDuplicates()
[In]: df.count()
[Out]: 26

删除列

我们可以利用drop函数从数据帧中删除任何列。如果我们想从 dataframe 中删除 m obile列,我们可以将它作为一个参数传递给drop函数。

[In]: df_new=df.drop('mobile')
[In]: df_new.show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

写入数据

一旦我们完成了处理步骤,我们就可以以所需的格式将干净的数据帧写入所需的位置(本地/云)。

战斗支援车

如果我们想把它保存回原来的 csv 格式作为单个文件,我们可以使用 spark 中的coalesce函数。

[In]: pwd
[Out]: ' /home/jovyan/work '
[In]: write_uri= '  /home/jovyan/work/df_csv '
[In]: df.coalesce(1).write.format("csv").option("header","true").save(write_uri)

镶木地板

如果数据集很大,并且包含很多列,我们可以选择压缩它,并将其转换为 parquet 文件格式。它减少了数据的总体大小,并在处理数据时优化了性能,因为它处理所需列的子集,而不是整个数据。我们可以很容易地将数据帧转换并保存为拼花格式,只需将格式命名为如下所示的parquet

[In]: parquet_uri='/home/jovyan/work/df_parquet'
[In]: df.write.format('parquet').save(parquet_uri)

注意

完整的数据集和代码可以在本书的 GitHub repo 上参考,在 Spark 2.3 和更高版本上执行得最好。

结论

在本章中,我们熟悉了一些使用 PySpark 处理和转换数据的函数和技术。使用 PySpark 对数据进行预处理的方法还有很多,但是本章已经介绍了为机器学习清理和准备数据的基本步骤。

四、线性回归

正如我们在前一章中谈到的机器学习,这是一个非常广阔的领域,有多种算法属于不同的类别,但线性回归是最基本的机器学习算法之一。本章着重于用 PySpark 构建一个线性回归模型,并深入研究 LR 模型的工作原理。它将涵盖在使用 LR 以及不同评估指标之前需要考虑的各种假设。但是在试图理解线性回归之前,我们必须了解变量的类型。

变量

变量以不同的形式捕获数据信息。主要有两类广泛使用的变量,如图 4-1 所示。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-1

变量的类型

我们甚至可以将这些变量进一步细分为子类别,但在本书中我们将坚持这两种类型。

数字变量是那些本质上是定量的值,比如数字(整数/浮点数)。例如,工资记录、考试分数、一个人的年龄或身高以及股票价格都属于数值变量的范畴。

另一方面,分类变量本质上是定性的,主要代表被测量数据的类别。例如,颜色、结果(是/否)、评级(好/差/平均)。

为了建立任何类型的机器学习模型,我们需要输入和输出变量。输入变量是用于建立和训练机器学习模型以预测输出或目标变量的那些值。我们举个简单的例子。假设我们想预测一个人的工资,给定这个人的年龄,使用机器学习。在这种情况下,工资是我们的输出/目标/因变量,因为它取决于年龄,这被称为输入或自变量。现在,输出变量本质上可以是分类的或数字的,并且根据其类型,选择机器学习模型。

现在回到线性回归,它主要用于我们试图预测数字输出变量的情况。线性回归用于预测符合输入数据的直线,指出可能的最佳方式,并有助于预测看不见的数据,但这里要注意的一点是,模型如何仅从“年龄”中学习并预测给定人员的工资金额?当然,这两个变量(工资和年龄)之间需要有某种关系。变量关系有两种主要类型:

  • 线性的

  • 非线性的

任何两个变量之间的线性关系的概念表明两者在某些方面是成比例的。任何两个变量之间的相关性给了我们一个指示,表明它们之间的线性关系有多强或多弱。相关系数的范围从-1 到+ 1。负相关意味着通过增加一个变量,另一个变量减少。例如,车辆的功率和里程可能是负相关的,因为当我们增加功率时,车辆的里程会下降。另一方面,工资和工作年限是正相关变量的一个例子。非线性关系本质上比较复杂,因此需要额外的细节来预测目标变量。比如自动驾驶汽车,地形、信号系统、行人等输入变量与汽车速度的关系是非线性的。

注意

下一节包括线性回归背后的理论,对许多读者来说可能是多余的。如果是这种情况,请随意跳过这一部分。

理论

既然我们已经了解了变量的基本知识和它们之间的关系,让我们以年龄和工资为例来深入理解线性回归。

线性回归的总体目标是通过数据预测一条直线,使得这些点中的每一个与该直线的垂直距离最小。因此,在这种情况下,我们将预测给定年龄的人的工资。假设我们有四个人的记录,记录了他们的年龄和各自的工资,如表 4-1 所示。

表 4-1

示例数据集

|

-你好。不,不

|

年龄

|

薪金(’ 0000 美元)

|
| — | — | — |
| one | Twenty | five |
| Two | Thirty | Ten |
| three | Forty | Fifteen |
| four | Fifty | Twenty-two |

我们有一个可以利用的输入变量(年龄)来预测工资(我们将在本书的后面部分介绍),但是让我们后退一步。让我们假设开始时我们所拥有的只是这四个人的工资值。在图 4-2 中绘制了每个人的工资。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-2

工资散点图

现在,如果我们要根据前面几个人的工资来预测第五个人(新人)的工资,最好的预测方法是取现有工资值的平均值。根据这些信息,这将是最好的预测。这就像建立一个机器学习模型,但没有任何输入数据(因为我们使用输出数据作为输入数据)。

让我们继续计算这些给定工资值的平均工资。

平均值。薪水= ) = 13

所以,下一个人的工资值的最佳预测是 13。图 4-3 展示了每个人的工资值以及平均值(仅使用一个变量时的最佳拟合线)。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-3

最佳拟合线图

图 4-3 所示的平均值线可能是这些数据点在这种情况下的最佳拟合线,因为除了工资本身,我们没有使用任何其他变量。如果我们仔细观察,没有一个早期的工资值位于这条最佳拟合线上;如图 4-4 所示,这似乎与平均工资值有一定的差距。这些也被称为错误。如果我们继续计算这个距离的总和并将它们相加,它变成 0,这是有意义的,因为它是所有数据点的平均值。因此,我们不是简单地将它们相加,而是将每个误差平方,然后将它们相加。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-4

残差图

误差平方和= 64 + 9 + 4 + 81 = 158。

因此,将残差平方相加,得出的总值为 158,即误差平方和(SSE)。

注意

到目前为止,我们还没有使用任何输入变量来计算 SSE。

让我们暂时搁置这个分数,并加入输入变量(人的年龄)来预测这个人的工资。让我们从图 4-5 所示的人的年龄和工资之间的关系开始。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-5

工资与年龄的相关图

正如我们所观察到的,工作经验年限和工资值之间似乎存在明显的正相关关系,这对我们来说是一件好事,因为它表明,由于投入(年龄)和产出(工资)之间存在很强的线性关系,该模型将能够以很高的准确度预测目标值(工资)。如前所述,线性回归的总体目标是得出一条符合数据点的直线,使实际目标值和预测值之间的平方差最小。因为它是一条直线,我们知道在线性代数中直线的方程是

y= mx + c,同样如图 4-6 所示。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-6

直线图

在哪里,

m =直线的斜率())

x =轴上的值

y =轴上的值

c =截距(x = 0 时 y 的值)

由于线性回归也是找出直线,线性回归方程变成

)

(因为我们仅使用 1 个输入变量,即年龄)

其中:

y=工资(预测)

B0 =截距(年龄为 0 时的工资值)

B1=工资的斜率或系数

x=年龄

现在,你可能会问,是否可以通过数据点绘制多条线(如图 4-7 )以及如何计算出哪条线是最佳拟合线。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-7

穿过数据的可能直线

找出最佳拟合线的第一个标准是它应该通过数据点的质心,如图 4-8 所示。在我们的例子中,质心值为

平均年龄= ) = 35 岁

平均值(工资)= ) = 13

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-8

数据的质心

第二个标准是它应该能够最小化误差平方和。我们知道我们的回归线方程等于

)

现在,使用线性回归的目的是得出截距( B 0 )和系数( B 1 )的最佳值,使得残差/误差最小化到最大程度。

通过使用下面的公式,我们可以很容易地找出数据集的值B0&B1

B1=)

b【0】= 意思是-【b】

表 4-2 展示了使用输入数据计算线性回归的斜率和截距。

表 4-2

斜率和截距的计算

|

年龄

|

薪水

|

年龄差异(不同于平均值)

|

薪资差异(差异。来自平均值)

|

协方差(乘积)

|

年龄差异(平方)

|
| — | — | — | — | — | — |
| Twenty | five | -15 | -8 | One hundred and twenty | Two hundred and twenty-five |
| Thirty | Ten | -5 | -3 | Fifteen | Twenty-five |
| Forty | Fifteen | five | Two | Ten | Twenty-five |
| Fifty | Twenty-two | Fifteen | nine | One hundred and thirty-five | Two hundred and twenty-five |

平均年龄= 35 岁

平均工资=13

任何两个变量(年龄和工资)之间的协方差被定义为每个变量(年龄和工资)与其平均值之间的距离的乘积。简而言之,年龄和工资方差的乘积称为协方差。现在我们有了协方差积和年龄方差的平方值,我们可以继续计算线性回归线的斜率和截距值:

B1=)

= )

=0.56

B0= 13-(0.56 * 35)

= -6.6

我们最终的线性回归方程变成

)

*工资= -6.6 + (0.56 年龄)

我们现在可以用这个等式预测任何给定年龄的工资值。例如,该模型会预测第一个人的工资如下:

薪金(第一人)= -6.6 + (0.56*20)

= 4.6 ($ ‘0000)

解释

Slope ( B 1 = 0.56)这里的意思是,人的年龄每增加 1 岁,工资也会增加 5600 美元。

截距并不总是从其值中推导出意义。就像在这个例子中,负 6.6 的值表明如果这个人还没有出生(年龄=0),那么这个人的工资将是负 66,000 美元。

图 4-9 显示了我们数据集的最终回归线。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 4-9

回归线

让我们使用回归方程预测数据中所有四条记录的工资,并比较与实际工资的差异,如表 4-3 所示。

表 4-3

预测值和实际值之间的差异

|

年龄

|

薪水

|

预计工资

|

差异/误差

|
| — | — | — | — |
| Twenty | five | Four point six | -0.4 |
| Thirty | Ten | Ten point two | Zero point two |
| Forty | Fifteen | Fifteen point eight | Zero point eight |
| Fifty | Twenty-two | Twenty-one point four | -0.6 |

简而言之,线性回归得出截距( B 0 )和系数( B 1B 2 )的最优值,使得预测值和目标变量之间的差异(误差)最小。

但问题仍然是:这是一个很好的适合吗?

估价

评价回归线的拟合优度有多种方法,但其中一种方法是利用决定系数( r 平方 )值。请记住,当我们仅使用输出变量本身并且其值为 158 时,我们已经计算了误差平方和。现在让我们重新计算这个模型的 SSE,它是我们使用一个输入变量构建的。表 4-4 显示了使用线性回归后新 SSE 的计算。

表 4-4

使用线性回归后上证指数的下降

|

年龄

|

薪水

|

预计工资

|

差异/误差

|

平方误差

|

旧上证所

|
| — | — | — | — | — | — |
| Twenty | five | Four point six | -0.4 | Zero point one six | Sixty-four |
| Thirty | Ten | Ten point two | Zero point two | Zero point zero four | nine |
| Forty | Fifteen | Fifteen point eight | Zero point eight | Zero point six four | four |
| Fifty | Twenty-two | Twenty-one point four | -0.6 | Zero point three six | Eighty-one |

正如我们所观察到的,平方差的总和从 158 显著减少到只有 1.2,这是因为使用了线性回归。目标变量(工资)的变化可以借助回归来解释(由于使用了输入变量——年龄)。因此,OLS 致力于减少误差平方和。误差平方和是两种类型的组合:

TSS(总误差平方和)= SSE(误差平方和)+ SSR(剩余误差平方和)

总平方和是实际值和平均值之间的平方差之和,并且总是固定的。在我们的示例中,这等于 158。

SSE 是目标变量的实际值与预测值的平方差,在使用线性回归后,该值减少到 1.2。

SSR 是回归解释的平方和,可以通过(TSS–SSE)计算。

SSR = 158–1.2 = 156.8

r 平方 (决定系数)=)=)= 0.99

这一百分比表明,我们的线性回归模型能够以 99 %的准确度预测给定人员年龄的工资金额。另外 1%可以归因于模型无法解释的误差。我们的线性回归线非常适合模型,但它也可能是过度拟合的情况。当您的模型在训练数据上预测精度很高,但在未知/测试数据上性能下降时,就会发生过度拟合。解决过拟合问题的技术被称为正则化,并且有不同类型的正则化技术。就线性回归而言,可以使用脊、套索或弹性网正则化技术来处理过度拟合。

岭回归也称为 L2 正则化,其重点是将输入要素的系数值限制为接近于零,而拉索回归(L1)则使某些系数为零,以提高模型的概化能力。Elasticnet 是这两种技术的结合。

说到底,回归仍然是一种参数驱动的方法,并且假设关于输入数据点分布的基本模式很少。如果输入数据不符合这些假设,则线性回归模型表现不佳。因此,在使用线性回归模型之前,快速浏览这些假设以了解它们是很重要的。

假设:

  • 输入变量和输出变量之间必须有线性关系。

  • 独立变量(输入要素)不应相互关联(也称为多重共线性)。

  • 残差/误差值之间必须没有相关性。

  • 残差和输出变量之间必须有线性关系。

  • 残差/误差值必须呈正态分布。

密码

本章的这一节着重于使用 PySpark 和 Jupyter Notebook 从头构建一个线性回归模型。

虽然我们看到了一个简单的例子,只有一个输入变量来理解线性回归,这是很少的情况。大多数情况下,数据集会包含多个变量,因此在这种情况下构建多变量回归模型更有意义。线性回归方程看起来像这样:

)

注意

完整的数据集和代码可以在本书的 GitHub repo 上参考,在 Spark 2.3 和更高版本上执行得最好。

让我们使用 Spark 的 MLlib 库构建一个线性回归模型,并使用输入特性预测目标变量。

数据信息

我们将在本例中使用的数据集是一个虚拟数据集,总共包含 1,232 行和 6 列。我们必须使用 5 个输入变量,通过线性回归模型来预测目标变量。

步骤 1:创建 SparkSession 对象

我们启动 Jupyter 笔记本并导入 SparkSession,然后创建一个新的 SparkSession 对象来使用 Spark:

[In]: from pyspark.sql import SparkSession
[In]: spark=SparkSession.builder.appName('lin_reg').getOrCreate()

步骤 2:读取数据集

然后,我们使用 Dataframe 在 Spark 中加载和读取数据集。我们必须确保我们已经从数据集可用的同一个目录文件夹中打开了 PySpark,否则我们必须提到数据文件夹的目录路径:

[In]: df=spark.read.csv('Linear_regression_dataset.csv',inferSchema=True,header=True)

步骤 3:探索性数据分析

在本节中,我们将通过查看数据集、验证数据集的形状、各种统计测量以及输入和输出变量之间的相关性来更深入地研究数据集。我们从检查数据集的形状开始。

[In]:print((df.count(), len(df.columns)))
[Out]: (1232, 6)

上面的输出确认了数据集的大小,我们可以验证输入值的数据类型,以检查我们是否需要更改/转换任何列的数据类型。在此示例中,所有列都包含整数值或双精度值。

[In]: df.printSchema()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

总共有六列,其中五列是输入列(var_1var_5)和目标列(输出)。我们现在可以使用describe函数来检查数据集的统计度量。

[In]: df.describe().show(3,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

这使我们能够对数据集列的分布、中心测量和分布有所了解。然后,我们使用 head 函数查看数据集,并传递我们想要查看的行数。

[In]: df.head(3)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们可以使用 corr 函数检查输入变量和输出变量之间的相关性:

[In]: from pyspark.sql.functions import corr
[In]: df.select(corr('var_1','output')).show()
[Out] :

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

var_1似乎与输出列的相关性最强。

步骤 4:特征工程

这是我们使用 Spark 的 VectorAssembler 创建一个组合所有输入特征的单一向量的部分。它仅创建一个要素来捕获该行的输入值。因此,它不是五个输入列,而是将所有输入列合并成一个特征向量列。

[In]: from pyspark.ml.linalg import Vector
[In]: from pyspark.ml.feature import VectorAssembler

用户可以选择用作输入特征的列数,并且只能通过 VectorAssembler 传递这些列。在我们的例子中,我们将传递所有五个输入列来创建一个单独的特征向量列。

[In]: df.columns
[Out]: ['var_1', 'var_2', 'var_3', 'var_4', 'var_5', 'output']

[In]: vec_assmebler=VectorAssembler(inputCols=['var_1', 'var_2', 'var_3', 'var_4', 'var_5'],outputCol='features')
[In]: features_df=vec_assmebler.transform(df)

[In]: features_df.printSchema()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

正如我们可以看到的,我们有一个额外的列(“features”),其中包含所有输入的单个密集向量。

[In]: features_df.select('features').show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们获取数据帧的子集,并仅选择 features 列和 output 列来构建线性回归模型。

[In]: model_df=features_df.select('features','output')

[In]: model_df.show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

[In]: print((model_df.count(), len(model_df.columns)))
[Out]: (1232, 2) 

步骤 5:拆分数据集

我们必须将数据集分成训练和测试数据集,以便训练和评估所建立的线性回归模型的性能。我们将其分成 70/30 的比例,并在 70%的数据集上训练我们的模型。我们可以打印火车的形状和测试数据来验证尺寸。

[In]: train_df,test_df=model_df.randomSplit([0.7,0.3])

[In]: print((train_df.count(), len(train_df.columns)))
[Out]: (882, 2)

[In]: print((test_df.count(), len(test_df.columns)))
[Out]: (350, 2)

步骤 6:建立和训练线性回归模型

在这一部分中,我们使用输入和输出列的功能来构建和定型线性回归模型。我们还可以获取模型的系数(B1,B2,B3,B4,B5)和截距(B0)值。我们还可以使用 r2 评估模型在训练数据上的性能。该模型在训练数据集上给出了非常好的准确度(86%)。

[In]: from pyspark.ml.regression import LinearRegression

[In]: lin_Reg=LinearRegression(labelCol='output')

[In]: lr_model=lin_Reg.fit(train_df)

[In]: print(lr_model.coefficients)
[Out]: [0.000345569740987,6.07805293067e-05,0.000269273376209,-0.713663600176,0.432967466411]
[In]: print(lr_model.intercept)
[Out]: 0.20596014754214345

[In]: training_predictions=lr_model.evaluate(train_df)

[In]: print(training_predictions.r2)
[Out]: 0.8656062610679494

步骤 7:评估测试数据的线性回归模型

整个练习的最后一部分是检查模型在未知或测试数据上的性能。我们使用 evaluate 函数对测试数据进行预测,并可以使用 r2 来检查模型对测试数据的准确性。表现好像和训练差不多。

[In]: test_predictions=lr_model.evaluate(test_df)

[In]: print(test_results.r2)
[Out]: 0.8716898064262081

[In]: print(test_results.meanSquaredError)
[Out]: 0.00014705472365990883

结论

在本章中,我们回顾了使用 PySpark 构建线性回归模型的过程,并解释了寻找最佳系数和截距值的过程。

五、逻辑回归

本章着重于用 PySpark 构建一个逻辑回归模型,并理解逻辑回归背后的思想。逻辑回归用于分类问题。我们已经在前面的章节中看到了分类的细节。虽然用于分类,但还是叫逻辑回归。这是因为在幕后,线性回归方程仍然可以找到输入变量和目标变量之间的关系。线性回归和逻辑回归之间的主要区别是,我们使用某种非线性函数将后者的输出转换为概率,以将其限制在 0 和 1 之间。例如,我们可以使用逻辑回归来预测用户是否会购买该产品。在这种情况下,模型将返回每个用户的购买概率。逻辑回归在许多商业应用中被广泛使用。

可能性

为了理解逻辑回归,我们必须先复习概率的概念。它被定义为在所有可能的结果中,期望的事件或感兴趣的结果发生的几率。举个例子,如果我们掷硬币,得到正面或反面的机会是相等的(50%),如图 5-1 所示。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 5-1

事件的概率

如果我们掷一个公平的骰子,那么得到(1 到 6)之间任何一个数字的概率等于 16.7%。

如果我们从一个包含四个绿色球和一个蓝色球的袋子中挑选一个球,挑选一个绿色球的概率是 80%。

逻辑回归用于预测每个目标类的概率。在二进制分类(只有两个类)的情况下,它返回与每个记录的每个类相关联的概率。如前所述,它在幕后使用线性回归来捕捉输入和输出变量之间的关系,但我们另外使用一个元素(非线性函数)来将输出从连续形式转换为概率。让我们借助一个例子来理解这一点。让我们考虑一下,我们必须使用模型来预测某个特定用户是否会购买该产品,我们只使用了一个输入变量,即用户在网站上花费的时间。相同的数据在表 5-1 中给出。

表 5-1。

转换数据集

|

-你好。不,不

|

花费的时间(分钟)

|

修改的

|
| — | — | — |
| one | one | 不 |
| Two | Two | 不 |
| three | five | 不 |
| four | Fifteen | 是 |
| five | Seventeen | 是 |
| six | Eighteen | 是 |

让我们将这些数据形象化,以便看出转换用户和非转换用户之间的区别,如图 5-2 所示。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 5-2

转换状态与花费的时间

使用线性回归

让我们尝试使用线性回归而不是逻辑回归来理解逻辑回归在分类场景中更有意义的原因。为了使用线性回归,我们必须将目标变量从分类形式转换成数字形式。因此,让我们为转换后的列重新分配值:

是= 1

否= 0

现在,我们的数据看起来就像表 5-2 中给出的那样。

表 5-2。

抽样资料

|

-你好。不,不

|

花费的时间(分钟)

|

修改的

|
| — | — | — |
| one | one | Zero |
| Two | Two | Zero |
| three | five | Zero |
| four | Fifteen | one |
| five | Seventeen | one |
| six | Eighteen | one |

将分类变量转换成数字变量的过程也很关键,我们将在本章的后半部分详细讨论这一点。现在,让我们绘制这些数据点,以便更好地可视化和理解它(图 5-3 )。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 5-3

转换状态(1 和 0)与花费时间的关系

正如我们所观察到的,在我们的目标列中只有两个值(1 和 0),并且每个点都位于这两个值中的任意一个上。现在,假设我们对这些数据点进行线性回归,得出一条“最佳拟合线”,如图 5-4 所示。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 5-4

用户回归线

这条线的回归方程是

)

)

就用一条直线来区分 1 和 0 值而言,到目前为止一切看起来都不错。看起来线性回归在区分转换用户和非转换用户方面做得很好,但是这种方法有一个小问题。

举个例子,一个新用户在网站上花了 20 秒,我们必须使用线性回归线来预测这个用户是否会转化。我们使用上面的回归方程,并尝试预测 20 秒所用时间的 y 值。

我们可以简单地通过计算来计算 y 的值

)

或者,我们也可以简单地从耗时轴到最佳拟合线上画一条垂直线来预测 y 的值。显然,y 的预测值 1.7 似乎远远大于 1,如图 5-5 所示。这种方法没有任何意义,因为我们只想预测 0 到 1 之间的值。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 5-5

使用回归线的预测

因此,如果我们对分类案例使用线性回归,就会产生预测输出值范围从–无穷大到+无穷大的情况。因此,我们需要另一种方法来将这些值限制在 0 和 1 之间。0 和 1 之间的值的概念不再陌生,因为我们已经看到了概率。因此,逻辑回归本质上提出了与概率值相关联的正类和负类之间的决策边界。

使用 Logit

为了实现将输出值转换成概率的目标,我们使用了一种叫做 Logit 的东西。Logit 是一个非线性函数,它对线性方程进行非线性变换,将输出在 0 和 1 之间转换。在逻辑回归中,非线性函数是 Sigmoid 函数,如下所示:

)

它总是产生 0 到 1 之间的值,与 x 的值无关。

所以,回到我们之前的线性回归方程

)

我们将输出(y)传递给这个非线性函数(sigmoid ),使其值在 0 和 1 之间变化。

概率= )

概率= )

使用上述等式,预测值被限制在 0 和 1 之间,输出现在如图 5-6 所示。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 5-6

逻辑曲线

使用非线性函数的优点是,无论输入值(花费的时间)如何,输出总是转换的概率。这条曲线也被称为逻辑曲线。逻辑回归还假设输入和目标变量之间存在线性关系,因此找出截距和系数的最佳值来捕捉这种关系。

解释(系数)

使用被称为梯度下降的技术找到输入变量的系数,该技术寻找以总误差最小化的方式优化损失函数。我们可以看看 logistic 回归方程,了解系数的解释。

)

比方说,在计算了我们示例中的数据点之后,我们得到花费时间的系数值为 0.75。

为了理解这个 0.75 意味着什么,我们必须取这个系数的指数值。

e?? 0.75= 2.12

这个 2.12 被认为是一个奇怪的比率,它表明在网站上花费的每单位时间的增加会增加 112%的客户转化几率。

虚拟变量

到目前为止,我们只处理了连续/数值变量,但数据集中出现分类变量是不可避免的。因此,让我们来理解使用分类值进行建模的方法。由于机器学习模型只消耗数字格式的数据,我们必须采用某种技术将分类数据转换成数字形式。我们已经在上面看到了一个例子,其中我们将目标类(Yes/No)转换为数值(1 或 0)。这就是所谓的标签编码,我们为特定列中的每个类别分配唯一的数值。还有一种方法非常有效,被称为实体模型化或热编码。让我们借助一个例子来理解这一点。让我们在现有的示例数据中再添加一列。假设我们有一个包含用户使用的搜索引擎的附加列。因此,我们的数据看起来像这样,如表 5-3 所示。

表 5-3。

分类数据集

|

-你好。不,不

|

花费的时间(分钟)

|

搜索引擎

|

修改的

|
| — | — | — | — |
| one | five | 谷歌 | Zero |
| Two | Two | 堆 | Zero |
| three | Ten | 美国 Yahoo 公司(提供互联网的信息检索服务) | one |
| four | Fifteen | 堆 | one |
| five | one | 美国 Yahoo 公司(提供互联网的信息检索服务) | Zero |
| six | Twelve | 谷歌 | one |

因此,要使用搜索引擎专栏中提供的额外信息,我们必须使用实体模型化将其转换为数字格式。因此,我们将获得额外数量的虚拟变量(列),这将等于搜索引擎列中不同类别的数量。以下步骤解释了将分类特征转换为数字特征的整个过程。

表 5-5。

木乃伊化

|

-你好。不,不

|

花费的时间(分钟)

|

如果 _Google

|

色冰

|

SE_Yahoo

|

修改的

|
| — | — | — | — | — | — |
| one | one | one | Zero | Zero | Zero |
| Two | Two | Zero | one | Zero | Zero |
| three | five | Zero | Zero | one | Zero |
| four | Fifteen | Zero | one | Zero | one |
| five | Seventeen | Zero | one | Zero | one |
| six | Eighteen | one | Zero | Zero | one |

  1. 找出类别列中不同类别的数量。到目前为止,我们只有三个不同的类别(谷歌、必应、雅虎)。

  2. Create new columns for each of the distinct categories and add value 1 in the category column for which it is present or else 0 as shown in Table 5-4.

    表 5-4。

    一个热编码

    |

    -你好。不,不

    |

    花费的时间(分钟)

    |

    搜索引擎

    |

    如果 _Google

    |

    色冰

    |

    SE_Yahoo

    |

    修改的

    |
    | — | — | — | — | — | — | — |
    | one | one | 谷歌 | one | Zero | Zero | Zero |
    | Two | Two | 堆 | Zero | one | Zero | Zero |
    | three | five | 美国 Yahoo 公司(提供互联网的信息检索服务) | Zero | Zero | one | Zero |
    | four | Fifteen | 堆 | Zero | one | Zero | one |
    | five | Seventeen | 美国 Yahoo 公司(提供互联网的信息检索服务) | Zero | one | Zero | one |
    | six | Eighteen | 谷歌 | one | Zero | Zero | one |

  3. 删除原始类别列。因此,数据集现在总共包含五列(不包括索引),因为我们有三个额外的虚拟变量,如表 5-5 所示。

整个想法是以不同的方式表示相同的信息,以便机器学习模型也可以从分类值中学习。

模型评估

为了衡量逻辑回归模型的性能,我们可以使用多个指标。最明显的是精度参数。准确性是模型做出的正确预测的百分比。然而,准确性并不总是首选的方法。为了理解逻辑模型的性能,我们应该使用混淆矩阵。它由预测值计数和实际值组成。二进制类的混淆矩阵如表 5-6 所示。

表 5-6。

混淆矩阵

|

实际/预测

|

预测类别(是)

|

预测类别(否)

|
| — | — | — |
| 实际类别(是) | 真正数(TP) | 假阴性(FN) |
| 实际类别(无) | 假阳性(FP) | 真阴性(TN) |

让我们理解混淆矩阵中的单个值。

真阳性

这些是实际上属于正类的值,并且模型也正确地预测了它们属于正类。

  • **实际类:**正(1)

  • ML 模型预测类:正(1)

真正的否定

这些值实际上属于负类,并且模型也正确地预测了它们属于负类。

  • **实际类别:**负(0)

  • **ML 模型预测类:**阴性(1)

假阳性

这些值实际上属于负类,但模型错误地预测它们属于正类。

  • **实际类别:**负(0)

  • **ML 模型预测类:**正(1)

假阴性

这些值实际上属于正类,但模型错误地预测它们属于负类。

  • **实际类:**正(1)

  • **ML 模型预测类:**阴性(1)

准确

准确度是真阳性和真阴性的总和除以记录总数:

)

但是如前所述,由于目标阶层的不平衡,它并不总是首选指标。大多数时候,目标类频率是偏斜的(与 TP 示例相比,TN 示例的数量更大)。例如,欺诈检测数据集包含 99 %的真实交易和仅 1%的欺诈交易。现在,如果我们的逻辑回归模型预测所有真实交易,没有欺诈案件,它仍然有 99%的准确率。全部的重点是找出关于积极类的表现;因此,我们可以使用几个其他评估指标。

回忆

召回率有助于从正面类的角度评估模型的性能。它表示模型能够正确预测的实际阳性案例占阳性案例总数的百分比。

)

它谈到了机器学习模型在预测积极类时的质量。那么,在所有积极的类别中,该模型能够正确预测多少呢?该指标被广泛用作分类模型的评估标准。

精确

精度是指模型预测的所有阳性案例中实际阳性案例的数量:

)

这些也可以作为评价标准。

F1 分数

F1 得分= )

截止/阈值概率

因为我们知道逻辑回归模型的输出是概率得分,所以决定预测概率的截止值或阈值是非常重要的。默认情况下,概率阈值设置为 50%。这意味着,如果模型的概率输出低于 50%,模型将预测它属于负类(0),如果它等于并高于 50%,它将被分配正类(1)。

如果阈值限制非常低,那么该模型将预测许多肯定的类别,并且将具有高召回率。相反,如果阈值概率非常高,则模型可能会错过正例,召回率会很低,但精度会更高。在这种情况下,模型将预测很少的阳性病例。决定一个好的阈值通常是具有挑战性的。受试者操作者特征曲线,或 ROC 曲线,可以帮助决定哪个阈值是最好的。

受试者工作特征曲线

ROC 用于决定模型的阈值。如图 5-7 所示,是召回率(也称为灵敏度)和精确度(特异性)之间的关系图。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

图 5-7

受试者工作特征曲线

人们希望选择一个在召回率和精确度之间提供平衡的阈值。因此,现在我们已经了解了与逻辑回归相关的各种组件,我们可以继续使用 PySpark 构建逻辑回归模型。

逻辑回归代码

本章的这一节重点介绍如何使用 PySpark 和 Jupyter Notebook 从头构建一个逻辑回归模型。

注意

这本书的 GitHub repo 上提供了完整的数据集和代码,在 Spark 2.3 和更高版本上执行得最好。

让我们使用 Spark 的 MLlib 库建立一个逻辑回归模型,并预测目标类标签。

数据信息

我们将在本例中使用的数据集是一个虚拟数据集,总共包含 20,000 行和 6 列。我们必须使用 5 个输入变量,通过逻辑回归模型来预测目标类别。该数据集包含关于零售体育商品网站的在线用户的信息。这些数据包括用户的国家、使用的平台、年龄、回头客或首次访客,以及在网站上浏览的网页数量。它还包含客户最终是否购买了产品的信息(转换状态)。

步骤 1:创建 Spark 会话对象

我们启动 Jupyter 笔记本并导入 SparkSession,然后创建一个新的 SparkSession 对象来使用 Spark。

[In]: from pyspark.sql import SparkSession
[In]: spark=SparkSession.builder.appName('log_reg').getOrCreate()

步骤 2:读取数据集

然后,我们使用 Dataframe 在 Spark 中加载和读取数据集。我们必须确保我们已经从数据集可用的同一个目录文件夹中打开了 PySpark,否则我们必须提到数据文件夹的目录路径。

[In]: df=spark.read.csv('Log_Reg_dataset.csv',inferSchema=True,header=True)

步骤 3:探索性数据分析

在本节中,我们将通过查看数据集并验证它的形状和变量的各种统计测量值来更深入地研究数据集。我们从检查数据集的形状开始:

[In]:print((df.count(), len(df.columns)))
[Out]: (20000, 6)

因此,上面的输出确认了数据集的大小,然后我们可以验证输入值的数据类型,以检查我们是否需要更改/转换任何列的数据类型。

[In]: df.printSchema()
[Out]: root
 |-- Country: string (nullable = true)
 |-- Age: integer (nullable = true)
 |-- Repeat_Visitor: integer (nullable = true)
 |-- Search_Engine: string (nullable = true)
 |-- Web_pages_viewed: integer (nullable = true)
 |-- Status: integer (nullable = true)

正如我们所看到的,有两个这样的列(Country,Search_Engine),它们本质上是分类的,因此需要转换成数字形式。让我们用 Spark 中的 show 函数来看看数据集。

[In]: df.show(5)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们现在可以使用 describe 函数来检查数据集的统计度量。

[In]: df.describe().show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们可以观察到,访问者的平均年龄接近 28 岁,他们在网站访问期间查看了大约 9 个网页。

让我们研究各个列,以便更深入地了解数据的细节。与 counts 一起使用的 groupBy 函数返回数据中每个类别的出现频率。

[In]: df.groupBy('Country').count().show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

因此,来自印度尼西亚的游客数量最多,其次是印度:

[In]: df.groupBy('Search_Engine').count().show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

雅虎搜索引擎的用户数量最多。

[In]: df.groupBy('Status').count().show()
[Out]:
+------+-----+
|Status|count|
+------+-----+
|     1|10000|
|     0|10000|
+------+-----+

我们有同等数量的用户转化和非转化。

让我们使用groupBy函数和均值来了解更多关于数据集的信息。

[In]: df.groupBy('Country').mean().show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们来自马来西亚的转化率最高,其次是印度。网页平均访问量在马来西亚最高,在巴西最低。

[In]: df.groupBy('Search_Engine').mean().show()

[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们从使用谷歌搜索引擎的用户访问者那里获得了最高的转化率。

[In]: df.groupBy(Status).mean().show()
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们可以清楚地看到,转换状态和页面浏览数量以及重复访问之间有着密切的联系。

步骤 4:特征工程

在这一部分,我们将分类变量转换成数字形式,并使用 Spark 的VectorAssembler创建一个组合了所有输入特征的向量。

[In]: from pyspark.ml.feature import StringIndexer
[In]: from pyspark.ml.feature import VectorAssembler

由于我们要处理两个分类列,我们必须将国家和搜索引擎列转换成数字形式。机器学习模型无法理解分类值。

第一步是使用StringIndexer into numerical form标记列。它为列的每个类别分配唯一的值。因此,在下面的例子中,搜索引擎(Yahoo,Google,Bing)的所有三个值都被赋值(0.0,1.0,2.0)。这在名为search_engine_num的栏目中可见一斑。

[In]: search_engine_indexer =StringIndexer(inputCol="Search_Engine", outputCol="Search_Engine_Num").fit(df)

[In]:df = search_engine_indexer.transform(df)

[In]: df.show(3,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

[In]: df.groupBy('Search_Engine').count().orderBy('count',ascending=False).show(5,False)

[Out]: 

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

[In]: df.groupBy(‘Search_Engine_Num').count().orderBy('count',ascending=False).show(5,False)

[Out]: 

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

下一步是将这些值中的每一个表示成一个热编码向量的形式。然而,这个向量在表示方面有一点不同,因为它捕获向量中的值和位置。

[In]: from pyspark.ml.feature import OneHotEncoder

[In]:search_engine_encoder=OneHotEncoder(inputCol="Search_Engine_Num", outputCol="Search_Engine_Vector")
 [In]: df = search_engine_encoder.transform(df)

[In]: df.show(3,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

[In]: df.groupBy('Search_Engine_Vector').count().orderBy('count',ascending=False).show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我们将用于构建逻辑回归的最后一个特性是Search_Engine_Vector。让我们理解这些列值代表什么。

 (2,[0],[1.0]) represents a vector of length 2 , with 1 value :

Size of Vector – 2
Value contained in vector – 1.0
Position of 1.0 value in vector – 0th place

这种表示法可以节省计算空间,从而加快计算速度。向量的长度等于元素总数减 1,因为每个值只需借助两列就可以很容易地表示出来。例如,如果我们需要使用一种热编码来表示搜索引擎,通常,我们可以这样做,如下所示。

|

搜索引擎

|

谷歌

|

美国 Yahoo 公司(提供互联网的信息检索服务)

|

|
| — | — | — | — |
| 谷歌 | one | Zero | Zero |
| 美国 Yahoo 公司(提供互联网的信息检索服务) | Zero | one | Zero |
| 堆 | Zero | Zero | one |

以优化方式表示上述信息的另一种方式是使用两列而不是三列,如下所示。

|

搜索引擎

|

谷歌

|

美国 Yahoo 公司(提供互联网的信息检索服务)

|
| — | — | — |
| 谷歌 | one | Zero |
| 美国 Yahoo 公司(提供互联网的信息检索服务) | Zero | one |
| 堆 | Zero | Zero |

让我们对另一个分类列(Country)重复相同的过程。

[In]:country_indexer = StringIndexer(inputCol="Country", outputCol="Country_Num").fit(df)
[In]: df = country_indexer.transform(df)
[In]: df.groupBy('Country').count().orderBy('count',ascending=False).show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

[In]: df.groupBy('Country_Num').count().orderBy('count',ascending=False).show(5,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

[In]: country_encoder = OneHotEncoder(inputCol="Country_Num", outputCol="Country_Vector")
[In]: df = country_encoder.transform(df)

[In]: df.select(['Country','Country_Num','Country_Vector']).show(3,False)
[Out]:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

[In]: df.groupBy('Country_Vector').count().orderBy('count',ascending=False).show(5,False)
[Out]: 

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

既然我们已经将两个分类列转换为数字形式,我们需要将所有输入列组合成一个向量,作为模型的输入特征。

因此,我们选择需要用来创建单个特征向量的输入列,并将输出向量命名为 features。

[In]: df_assembler = VectorAssembler(inputCols=['Search_Engine_Vector','Country_Vector','Age', 'Repeat_Visitor','Web_pages_viewed'], outputCol="features")
[In}:df = df_assembler.transform(df)

[In]: df.printSchema()
[Out]:
root
 |-- Country: string (nullable = true)
 |-- Age: integer (nullable = true)
 |-- Repeat_Visitor: integer (nullable = true)
 |-- Search_Engine: string (nullable = true)
 |-- Web_pages_viewed: integer (nullable = true)
 |-- Status: integer (nullable = true)
 |-- Search_Engine_Num: double (nullable = false)
 |-- Search_Engine_Vector: vector (nullable = true)
 |-- Country_Num: double (nullable = false)
 |-- Country_Vector: vector (nullable = true)
 |-- features: vector (nullable = true) 

正如我们所看到的,现在我们有了一个名为 features 的额外列,它是所有输入要素的组合,表示为一个密集矢量。

[In]: df.select(['features','Status']).show(10,False)
[Out]:
+-----------------------------------+------+
|features                           |Status|
+-----------------------------------+------+
|[1.0,0.0,0.0,1.0,0.0,41.0,1.0,21.0]|1     |
|[1.0,0.0,0.0,0.0,1.0,28.0,1.0,5.0] |0     |
|(8,[1,4,5,7],[1.0,1.0,40.0,3.0])   |0     |
|(8,[2,5,6,7],[1.0,31.0,1.0,15.0])  |1     |
|(8,[1,5,7],[1.0,32.0,15.0])        |1     |
|(8,[1,4,5,7],[1.0,1.0,32.0,3.0])   |0     |
|(8,[1,4,5,7],[1.0,1.0,32.0,6.0])   |0     |
|(8,[1,2,5,7],[1.0,1.0,27.0,9.0])   |0     |
|(8,[0,2,5,7],[1.0,1.0,32.0,2.0])   |0     |
|(8,[2,5,6,7],[1.0,31.0,1.0,16.0])  |1     |
+-----------------------------------+------+
only showing top 10 rows

让我们只选择 features 列作为输入,Status 列作为输出来训练逻辑回归模型。

 [In]: model_df=df.select(['features','Status'])

步骤 5:拆分数据集

为了训练和评估逻辑回归模型的性能,我们必须将数据集分为训练和测试数据集。我们以 75/25 的比例分割它,并在数据集的 75%上训练我们的模型。拆分数据的另一个用途是,我们可以使用 75%的数据来应用交叉验证,以便得出最佳的超参数。交叉验证可以是不同的类型,其中训练数据的一部分被保留用于训练,而剩余部分用于验证目的。K-fold 交叉验证主要用于训练具有最佳超参数的模型。

我们可以打印火车的形状和测试数据来验证尺寸。

[In]: training_df,test_df=model_df.randomSplit([0.75,0.25])
[In]: print(training_df.count())
[Out]: (14907)

[In]: training_df.groupBy('Status').count().show()
[Out]:
+------+-----+
|Status|count|
+------+-----+
|     1| 7417|
|     0| 7490|
+------+-----+

这确保我们在训练和测试集中有一个目标类(Status)的平衡集。

[In]:print(test_df.count())
[Out]: (5093)

[In]: test_df.groupBy('Status').count().show()
[Out]:
+------+-----+
|Status|count|
+------+-----+
|     1| 2583|
|     0| 2510|
+------+-----+

步骤 6:建立和训练逻辑回归模型

在这一部分中,我们使用功能作为输入列,状态作为输出列来构建和训练逻辑回归模型。

[In]: from pyspark.ml.classification import LogisticRegression

[In]: log_reg=LogisticRegression(labelCol='Status').fit(training_df)

培训结果

我们可以使用 Spark 中的 evaluate 函数访问模型做出的预测,该函数以优化的方式执行所有步骤。这给出了另一个总共包含四列的数据框架,包括预测和概率。prediction列表示模型已经为给定行预测的类标签,而probability列包含两个概率(第 0 个索引处的负类的概率和第 1 个索引处的正类的概率)。

[In]: train_results=log_reg.evaluate(training_df).predictions

[In]: train_results.filter(train_results['Status']==1).filter(train_results['prediction']==1).select(['Status','prediction','probability']).show(10,False)
[Out]:
+------+----------+----------------------------------------+
|Status|prediction|probability                             |
+------+----------+----------------------------------------+
|1     |1.0       |[0.2978572628475072,0.7021427371524929] |
|1     |1.0       |[0.2978572628475072,0.7021427371524929] |
|1     |1.0       |[0.16704676975730415,0.8329532302426959]|
|1     |1.0       |[0.16704676975730415,0.8329532302426959]|
|1     |1.0       |[0.16704676975730415,0.8329532302426959]|
|1     |1.0       |[0.08659913656062515,0.9134008634393749]|
|1     |1.0       |[0.08659913656062515,0.9134008634393749]|
|1     |1.0       |[0.08659913656062515,0.9134008634393749]|
|1     |1.0       |[0.08659913656062515,0.9134008634393749]|
|1     |1.0       |[0.08659913656062515,0.9134008634393749]|
+------+----------+----------------------------------------+

因此,在上述结果中,第 0 个指标的概率是针对Status = 0的,第 1 个指标的概率是针对Status =1的。

步骤 7:评估测试数据的线性回归模型

整个练习的最后一部分是检查模型在未知或测试数据上的性能。我们再次利用 evaluate 函数对测试进行预测。

我们将预测数据帧分配给结果,结果数据帧现在包含五列。

[In]:results=log_reg.evaluate(test_df).predictions
[In]: results.printSchema()
[Out]:
root
 |-- features: vector (nullable = true)
 |-- Status: integer (nullable = true)
 |-- rawPrediction: vector (nullable = true)
 |-- probability: vector (nullable = true)
 |-- prediction: double (nullable = false)

我们可以使用 select 关键字过滤我们想要查看的列。

[In]: results.select(['Status','prediction']).show(10,False)
[Out]:
+------+----------+
|Status|prediction|

+------+----------+
|0     |0.0       |
|0     |0.0       |
|0     |0.0       |
|0     |0.0       |
|1     |0.0       |
|0     |0.0       |
|1     |1.0       |
|0     |1.0       |
|1     |1.0       |
|1     |1.0       |
+------+----------+
only showing top 10 rows

由于这是一个分类问题,我们将使用混淆矩阵来衡量模型的性能。

混淆矩阵

我们将手动为真阳性、真阴性、假阳性和假阴性创建变量,以更好地理解它们,而不是使用直接的内置函数。

[In]:tp = results[(results.Status == 1) & (results.prediction == 1)].count()
[In]:tn = results[(results.Status == 0) & (results.prediction == 0)].count()
[In]:fp = results[(results.Status == 0) & (results.prediction == 1)].count()
[In]:fn = results[(results.Status == 1) & (results.prediction == 0)].count()

准确

正如本章已经讨论过的,精确度是评估任何分类器的最基本的度量标准;然而,由于对目标类平衡的依赖性,这不是模型性能的正确指标。

)

[In]: accuracy=float((true_postives+true_negatives) /(results.count()))
[In]:print(accuracy)
[Out]: 0.9374255065554231

我们建立的模型的准确率大约为 94%。

回忆

召回率显示了在所有的正类观察结果中,我们能够正确预测的正类案例的数量。

)

[In]: recall = float(true_postives)/(true_postives + false_negatives)
[In]:print(recall)
[Out]: 0.937524870672503

模型的召回率在 0.94 左右。

精确

)

精确率是指在所有预测的阳性观察值中,正确预测的真阳性的数量:

[In]: precision = float(true_postives) / (true_postives + false_positives)
[In]: print(precision)
[Out]: 0.9371519490851233

因此,召回率和精确率也在相同的范围内,这是因为我们的目标类别得到了很好的平衡。

结论

在本章中,我们回顾了理解逻辑回归的构建模块、将分类列转换为数字特征以及使用 PySpark 从头构建逻辑回归模型的过程。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值