统计学习介绍

统计学习是通过建立模型预测输出变量与输入变量间的关系。在给定的例子中,广告投入与销售额的关系展示了统计学习的应用。方法包括参数方法(如线性模型)和非参数方法,后者不预设模型形式。监督学习涉及有标签的数据,如线性回归和逻辑回归,而无监督学习则处理无标签数据,如聚类。回归问题关注定量响应变量,而分类问题涉及定性响应变量。
摘要由CSDN通过智能技术生成

统计学习

什么是统计学习

首先我们有这样一个例子,假设我们要通过一个品牌的各种广告方式来提高这个品牌产品的销售量。我们拿到这么一个数据, S = { s a l e s , T V , r a t i o , n e w p a p e r } S = \{sales, TV, ratio, newpaper\} S={sales,TV,ratio,newpaper}。公司当然不能直接提高产品的销售额,能控制得是在三个媒体渠道投入的资产。如果我们发现了广告和销售额之间的关系,那么,我们就能指导企业来调整广告投入分配。换句话说,我们要建立一个准确的模型,而这个模型可以通过三个渠道的广告方式的预算数据来预测销售额。

在这个情况下,{TV, ratio, newspaper}就是我们的输入变量(预测变量、特征、解释变量等等),而{sales}就是我们的输出变量。输入变量我们一般用 X = { X 1 , X 2 , . . . , X d } , X ∈ R n × d X = \{X_1, X_2,...,X_d\}, X \in R^{n\times d} X={X1,X2,...,Xd},XRn×d 来表示我们有n组数据,每组数据有d个维度。 sales就是我们的输出变量(响应变量),通常用 Y = { Y 1 , . . . , Y m } , Y ∈ R n × m Y = \{Y_1,...,Y_m\}, Y \in R^{n\times m} Y={Y1,...,Ym},YRn×m来表示。假设Y和X之间具有一些关系,则我们可以写成如下形式。
Y = f ( X ) + ε Y = f(X)+\varepsilon Y=f(X)+ε

从另一个角度来说, f f f X X X所能提供的对于 Y Y Y的系统性的信息。

    • 本质上,统计学习是指用于估计f的一组方法
    • 我们估计f主要有两个目的,一是为了做预测(prediction),二是为了做统计推断(inference)
    • 如何估计 f f f

      我们有很多线性或者非线性的模型来估计这个映射函数 f f f,但是每个方法都有一些共通的性质,这个部分会介绍这些共同的特点。 在介绍前先确定一些术语:

      • X:训练特征集合(n个观测值和d个特征变量)
      • Y:响应变量集(n个观测值或标签)
      • { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) } \{(x_1,y_1),(x_2,y_2),...,(x_n,y_n)\} {(x1,y1),(x2,y2),...,(xn,yn)}:训练数据集

      明确我们的目标:通过在训练数据上建立模型来找到那个未知的函数 f f f
      总的来说,统计学习方法可以分为参数方法和非参数方法,这里我们简单地介绍两种类型

      参数方法

      参数方法可以分为两个步骤。

      • 首先我们要假设函数地样子和形式,比如我们假设f是线性的,那么就可以生成下面这种形式:

      f ( X ) = β 0 + β 1 X 1 + β 2 X 2 + . . . + β p X p f(X) = \beta_0+\beta_1 X_1+\beta_2 X_2 +...+\beta_p X_p f(X)=β0+β1X1+β2X2+...+βpXp

      这就是线性模型,之后会详细地介绍。一旦确立了模型地样子,问题就变得相对简单了,我们只需要去想办法估计这些参数。比如在线性模型里,我们就要估计p+1个参数 β 0 , β 1 , . . . , β p \beta_0,\beta_1,...,\beta_p β0,β1,...,βp

      • 选择完模型后,我们要做地就是用训练数据去拟合和训练我们地模型(fit and train)。还是以简单地线性回归为例子,最小二乘估计是一个常见地拟合方法。
        在这里插入图片描述

      参数方法存在一个潜在的问题:我们选择的f的模型形式往往和真实的模型形式不是相同的。我们很难做到准确地设定我们都模型。如果我们设定地模型和原模型差距过大,那效果也会很差。为了解决这个问题,我们可以尝试不同地灵活地模型,但是这样就意味着我们需要估计更多地参数并且复杂地模型还有可能导致过拟合(overfitting)的问题

      非参数方法

      非参数方法不需要对模型的形式做出假设,它找的是f的一个估计去使得它尽量接近数据点但又不是太粗糙或模糊。这么通过避免假设f具有特定的函数形式,它们有可能准确地拟合f的更广泛的可能形状。但是非参数方法确实有一个主要的缺点:由于它们不能将估计f的问题减少到少量参数,因此需要大量的观测值(远远超过参数方法通常所需的观测值)。 为了获得f的准确估计。
      非参数估计结果

      监督学习和无监督学习

      绝大多数统计学习问题都可以分为监督学习和无监督学习(实际上也有半监督学习)。一些经典的学习模型像线性回归、逻辑回归、GAM、boosting、支撑向量机等都是在有监督学习的领域内的。相反,无监督学习描述了一种更具挑战性的情况,那就是我们只有观测值 x i x_i xi而没有其对应的标签或响应值 y i y_i yi。这种情况下,我们当然没法去用线性模型因为没有响应变量。

      对于这种情况,我们追寻的是去理解和找寻观测值或变量之间的关系。常用的方法是聚类方法,其目的是在观测值的基础上去确定观测值是否落在相对不同的群(group)中。
      聚类算法

      许多问题自然属于有监督或无监督的学习范式。但是,有时分析应被视为监督还是无监督的问题却不太明确。例如,假设我们有一组n个观测值。对于m个观察值中的 m < n m<n m<n,我们既有预测值也有响应值。对于其余的n-m个观测值,我们有预测值测量值,但没有响应测量值。如果可以相对便宜地测量预测变量,但收集相应的响应要昂贵得多,则会出现这种情况。我们将此设置称为半监督学习问题。

      回归和分类问题

      变量可以分为定量或者定性(分类)变量。定量变量展现出来时数值形式,比如人的身高、体重、收入等。相反,定性变量展现出来的是不同的类别或级别,例如人的性别、公司品牌等。如果我们的响应变量是一个定量的变量,我们常将此类问题成为回归问题。如果响应变量是一个定性的变量,我们常常称这种问题为分类问题。

      最小二乘线性回归使用的就是定量的响应变量,而逻辑回归中使用的响应变量是一个定性变量(分类变量)

    评论 1
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值