计算机中的公式概念与运用,机器学习概念,公式总结

一. 引言

1.机器学习是什么

Arthur Samuel:在进行特定编程的情况下,给予计算机学习能力的领域。

Tom Mitchell:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。

2.机器学习导图

5af723f64af8

正面.jpeg

图的左半部分列出了常用的机器学习算法与它们之间的演化关系,分为有监督学习,无监督学习,强化学习3大类。右半部分列出了典型算法的总结比较,包括算法的核心点如类型,预测函数,求解的目标函数,求解算法。

另一个角度总结:

5af723f64af8

image.png

3.机器学习分类及应用

分类

监督学习:对于有标签的数据进行学习,目的是能够正确判断无标签的数据。通俗的讲,老师教授学生知识,并告知学习过程中的对与错,让学生可以从所学知识的经验和技能中对没有学过的问题进行正确回答,这就是监督学习,用于预测数据的回归、分类标签的分类、顺序的排序等问题。

无监督学习:对于无标签的数据进行学习,目的是不仅能够解决有明确答案的问题,也可以对没有明确答案的问题进行预测。通俗的讲,学生通过自学学习知识,达到可以正确回答有答案的问题,也可以对无答案的问题进行预测归类。常用于聚类、异常检测等。

强化学习:学生学习知识时,没有老师对其进行对与错的判定,需要学生根据自己所拥有的信息自己判定对于错,如果能够判定出来,则为有监督学习;如果判定不出来对与错,则为无监督学习。常用于机器人的自动控制、游戏的人工智能、市场战略的最优化等。

应用

监督学习应用:手写文字识别、声音处理、图像处理、垃圾邮件分类与拦截、网页检索、基因诊断、股票预测......(回归、分类、排序)

无监督学习应用:人造卫星故障诊断、视频分析、社交网站解析、声音信号解析.....(聚类、异常检测)

强化学习应用:机器人的自动控制、计算机游戏中的人工智能、市场战略的最优化(回归、分类、聚类、降维)

4.机器学习方法

生成式分类

判别式分类

生成式分类和判别式分类

已知模式x, 求分类类别y的条件概率

math?formula=p(y%7Cx)最大的类别:

math?formula=%5Chat%7By%7D%20%3D%20%5Cunderset%7By%7D%7B%5Carg%5Cmax%7D%20p(y%7Cx)

条件概率改写为y的函数:

math?formula=p(y%7Cx)%20%3D%20%5Cfrac%7Bp(x%2Cy)%7D%7Bp(x)%7D%20%5Cpropto%20p(x%2Cy)

联合概率p(x,y)和后验概率p(y|x)成正比,故直接求联合概率最大值即可:

math?formula=%5Chat%7By%7D%20%3D%20%5Cunderset%7By%7D%7B%5Carg%5Cmax%20p(x%2Cy)%7D

条件概率p(y|x)也称后验概率, 联合概率p(x,y)也称数据生成概率

直接对后验概率

math?formula=p(y%7Cx)学习的过程称为判别式分类

通过预测数据生成概率

math?formula=p(x%2Cy)学习的过程称为生成式分类

数据生成概率

math?formula=p(x%2Cy)已知时可推出后验概率:

math?formula=p(y%7Cx)%20%3D%20%5Cfrac%7Bp(x%2Cy)%7D%7Bp(x)%7D%20%3D%20%5Cfrac%7Bp(x%2Cy)%7D%7B%5Csum_y%7Bp(x%2Cy)%7D%7D, 反之不可以.

统计概率和朴素贝叶斯

统计概率方法

已知样本

math?formula=D%3D%5C%7B(x_i%2Cy_i)%5C%7D_%7Bi%3D1%7D%5E%7Bn%7D, 求运用最大似然方法来求模式

math?formula=%5Ctheta:

math?formula=%5Cunderset%7B%5Ctheta%7D%7Bmax%7D%5Cprod_%7Bi%3D1%7D%5Eyq(x_i%2Cy_i%3B%5Ctheta)

目标: 由训练集得到高精度的

math?formula=%5Ctheta

朴素贝叶斯方法

计算模式

math?formula=%5Ctheta的先验概率

math?formula=p(%5Ctheta),运用贝叶斯定理来求数据集D的后验概率

math?formula=p(%5Ctheta%7CD):

math?formula=p(%5Ctheta%7CD)%3D%5Cfrac%7Bp(D%7C%5Ctheta)p(%5Ctheta)%7D%7Bp(D)%7D%20%3D%20%5Cfrac%7B%5Cint%5Cprod_%7Bi%3D1%7D%5Enq(x_i%2Cy_i%7C%5Ctheta)p(%5Ctheta)%7D%7B%5Cint%5Cprod_%7Bi%3D1%7D%5Enq(x_i%2Cy_i%7C%5Ctheta)p(%5Ctheta)d%5Ctheta%7D

目标: 如何精确计算后验概率

math?formula=p(%5Ctheta)

5.强化学习(RL),监督学习(SL)和无监督学习(UL)的区别和联系

下面这段话解释了得很清楚:

Reinforcement learning is a problem. Deep learning is an approach to solving problems.There is a deep learning approach to supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning.

划重点:

Supervised Learning: given data, predict labels

Unsupervised Learning: given data, learn about that data

Reinforcement learning: given data, choose action to maximize expected long-term reward

RL更像控制系统家族里的,流着控制的血液,披着机器学习的外衣,需要data,training以此来支持决策。RL可以decision-making,不同于决策树之类的决策,是控制角度的决策,意味着就有失误,伴随着收益与惩罚(股票,博弈,游戏得分等等)。

细一点来说,RL与SL的区别有:

喂数据的方式不同:强化学习(RL)的数据是序列的、交互的、并且还是有反馈的(Reward)-【MDP]。这就导致了与监督学习(SL)在优化目标的表现形式的根本差异:RL是一个决策模型,SL更偏向模式挖掘,低阶的函数逼近与泛化。RL是agent自己去学习,SL是跟着programmer的idea在收敛。

RL的target是估计得来的,符合bellman等式,SL的target是fixed label;RL可以融合SL来训练,RL还可以自己博弈来生成样本。[交互特性,也可以放到第一点中]

RL可以进行lifelong形式的学习。RL有“生命”的【你可能也不知道你训练出来的模型到底能干什么】,SL没有。

二. 机器学习模型

1. 线性模型

一维输入+基函数形式:

math?formula=f_%5Ctheta(x)%20%3D%20%5Csum_%7Bj%3D1%7D%5Eb%5Ctheta_j%5Cphi_j(x)%20%3D%20%5Ctheta%5ET%5Cphi(x)

math?formula=%5Cphi_j(x)非线性时,

math?formula=f_%5Ctheta(x)可以表示复杂模型

基函数:

(1) 多项式

math?formula=%5Cphi(x)%20%3D%20(1%2C%20x%2C%20x%5E2%2C%20...%2C%20x%5E%7Bb-1%7D)%5ET

(2)三角多项式

math?formula=%5Cphi(x)%20%3D%20(1%2C%20sinx%2C%20cosx%2C%20sin2x%2C%20cos2x%2C%20...%2C%20sinmx%2C%20cosmx)%5ET

多维输入形式:

math?formula=f_%5Ctheta(%5Cvec%20x)%20%3D%20%5Csum_%7Bj%3D1%7D%5Eb%5Ctheta_j%5Cphi_j(%5Cvec%20x)%20%3D%20%5Ctheta%5ET%5Cphi(%5Cvec%20x)

math?formula=%5Cphi_j(x)是基函数向量

math?formula=%5Cphi(x)%20%3D%20(%5Cphi_1(x)%2C%20...%2C%20%5Cphi_b(x))%5ET)的第j个因子,

math?formula=%5Ctheta_j是参数向量

math?formula=%5Ctheta%3D(%5Ctheta_1%2C...%2C%5Ctheta_b)%5ET的第j个因子.

基函数:

(1) 乘法模型

math?formula=f_%5Ctheta(%5Cvec%20x)%20%3D%20%5Csum_%7Bj_1%3D1%7D%5E%7Bb'%7D%20%5Ccdots%20%5Csum_%7Bj_d%3D1%7D%5E%7Bb'%7D%20%5Ctheta_%7Bj_1%2C...%2Cj_d%7D%20%5Cphi_%7Bj_1%7D%7B(x%5E%7B(1)%7D%7D)%20%5Ccdots%20%5Cphi_%7Bj_d%7D(x%5E%7B(d)%7D)

模型表现力丰富, 其中, b'代表各维参数个数, 参数总和

math?formula=(b%E2%80%B2)%5Ed, 易导致维数灾难.

(2) 加法模型

math?formula=%CE%B8(x)%3D%5Csum_%7Bk%3D1%7D%5Ed%5Csum_%7Bj%3D1%7D%5E%7Bb'%7D%5Ctheta_%7Bk%2Cj%7D%5Cphi_j(x%5E%7B(k)%7D)

参数总和

math?formula=b'd, 复杂度小, 表现力差

2. 核模型

线性模型基函数和训练样本无关,核模型的基函数会使用输入样本.

核模型是二元核函数

math?formula=K(%5Ccdot%2C%5Ccdot), 以

math?formula=K(%5Cvec%20x%2C%20x_j)_%7Bj%3D1%7D%5En的方式线性结合:

math?formula=f_%5Ctheta(x)%20%3D%20%5Csum_%7Bj%3D1%7D%5En%5Ctheta_jK(x%2Cx_j)

高斯核:

math?formula=K(x%2Cc)%20%3D%20exp(-%5Cfrac%7B%5C%7Cx-c%5C%7C%5E2%7D%7B2h%5E2%7D)

, 其中

math?formula=%5C%7C%5Ccdot%5C%7C表示

math?formula=L2范数

math?formula=%5C%7Cx%5C%7C%3D%5Csqrt%7Bx%5ETx%7D, h和c是高斯函数带宽和均值

高斯核函数图:

5af723f64af8

一维高斯核

5af723f64af8

如图, 只在各个样本

math?formula=%5C%7Bx_i%5C%7D_%7Bi%3D1%7D%5En附近近似, 减轻了维数灾难

参数个数不依赖输入变量维数d, 只由样本数n决定

样本数n很大时, 将样本

math?formula=%5C%7Bx_i%5C%7D_%7Bi%3D1%7D%5En的子集

math?formula=%5C%7Bc_j%5C%7D_%7Bj%3D1%7D%5Eb作为核均值计算, 抑制了计算负荷:

math?formula=f_%5Ctheta(x)%3D%5Csum_%7Bj%3D1%7D%5Eb%5Ctheta_jK(x%2Cc_j)

核模型是参数向量

math?formula=%5Cvec%20%5Ctheta%3D(%5Ctheta_1%2C%5Ccdots%2C%5Ctheta_n)%5ET的线性形式, 因此也是基于参数的线性模式的特例.

基于参数的线性模型称为参数模型, 核模型称为非参数模型

核映射: 核模型易扩展,当输入样本不是向量时(字符串,决策树, 图表等),通过构造两个样本x和x'的和核函数

math?formula=K(x%2Cx')来建模.

3. 层级模型

非线性模型: 和参数相关的不是线性的模型均称为非线性模型

非线性模型中的层级模型:

math?formula=f_%5Ctheta(x)%20%3D%20%5Csum_%7Bj%3D1%7D%5Eb%5Calpha_j%5Cphi(x%3B%5Cbeta_j)

上式中,

math?formula=%5Cphi(x%3B%5Cbeta_j)是包含参数向量

math?formula=%5Cvec%20%5Cbeta的基函数,

math?formula=%5Cvec%20%5Calpha是参数向量

层级模型是基于参数向量

math?formula=%5Cvec%20%5Ctheta%20%3D%20(%5Cvec%20%5Calpha%5ET%2C%20%5Cbeta_1%5ET%2C%20%5Ccdots%2C%20%5Cbeta_b%5ET)%5ET的非线性形式

S型基函数:

math?formula=%5Cphi(x%3B%5Cbeta)%20%3D%20%5Cfrac%7B1%7D%7B1%2Bexp(-%20x%5ET%20%5Comega-%5Cgamma)%7D%2C%20%5Cbeta%20%3D%20(%5Comega%5ET%2C%20%5Cgamma)%5ET

5af723f64af8

S型基函数

高斯基函数:

math?formula=%5Cphi(x%3B%5Cbeta)%20%3D%20exp(-%5Cfrac%7B%5C%7Cx-c%5C%7C%5E2%7D%7B2h%5E2%7D)%2C%20%5Cbeta%20%3D%20(c%5ET%2C%20h)%5ET

5af723f64af8

高斯基函数

使用S型核函数的层级模型称为人工神经网络

上式中的高斯函数和核模型中的高斯核相同,但是带宽和均值非固定

层级模型会对耦合系数

math?formula=%5C%7B%5Calpha_j%5C%7D_%7Bj%3D1%7D%5Eb,带宽和均值都进行学习, 因此层级模型比核函数更灵活.

人工神经网络学习过程艰难: 参数

math?formula=%5Ctheta和函数

math?formula=f_%5Ctheta不是一一对应的

常采用贝叶斯方法学习人工神经网络

三. 最小二乘法(LS)

1. 无约束最小二乘法

对模型均方误差最小化时的参数

math?formula=%5Ctheta学习的方法.

若无特别说明, 下文提到的最小二乘法通指无约束的.

均方误差:

math?formula=J_%7BLS%7D(%5Ctheta)%20%3D%20%5Cfrac%7B1%7D%7B2%7D%5Csum_%7Bi%3D1%7D%5En(f_%5Ctheta(x_i)-y_i)%5E2

LS: Least Squares

学习目标:

math?formula=%5Chat%5Ctheta_%7BLS%7D%20%3D%20%5Cunderset%7B%5Ctheta%7D%7B%5Carg%5Cmin%7DJ_%7BLS%7D(%5Ctheta)

平方误差

math?formula=(f_%5Ctheta(x_i)-y_i)%5E2是残差

math?formula=%7Cf_%5Ctheta(x_i)-y_i%7C

math?formula=L2范数, 最小二乘法也称 math?formula=L_2损失最小化学习法

加权最小二乘法

对训练样本平方差通过权重

math?formula=w_i加权, 再使用最小二乘法:

math?formula=%5Cunderset%7B%5Ctheta%7D%7Bmin%7D%5Cfrac%7B1%7D%7B2%7D%5Csum_%7Bi%3D1%7D%5Enw_i(f_%5Ctheta(x_i)-y_i)%5E2

核模型的最小二乘法求解:

math?formula=f_%5Ctheta(x)%20%3D%20%5Csum_%7Bj%3D1%7D%5En%5Ctheta_jK(x%2Cx_j)

上式, 将设计矩阵

math?formula=%5CPhi置换为核矩阵K:

math?formula=K%20%3D%20%5Cbegin%7Bpmatrix%7D%20K(x_1%2Cx1)%20%26%5Ccdots%20%26K(x_1%2Cx_n)%20%5C%5C%20%5Cvdots%20%26%5Cddots%20%26%20%5Cvdots%20%5C%5C%20K(x_n%2Cx_1)%20%26%5Ccdots%20%26%20K(x_n%2Cx_n)%20%5Cend%7Bpmatrix%7D

线性模型中的应用

math?formula=f_%5Ctheta(x)%20%3D%20%5Csum_%7Bj%3D1%7D%5Eb%5Ctheta_i%5Cphi_i(%5Cmathbf%20x)%20%3D%20%5Ctheta%5ET%5Cphi(x)

平方误差:

math?formula=J_%7BLS%7D(%5Ctheta)%20%3D%20%5Cfrac%7B1%7D%7B2%7D%5C%7C%5CPhi%20%5Cmathbf%20%5Ctheta-%5Cmathbf%20y%5C%7C%5E2

math?formula=%5CPhi构成的nxb阶设计矩阵:

math?formula=%5CPhi%20%3D%20%5Cbegin%7Bpmatrix%7D%20%5Cphi_1(x_1)%20%26%5Ccdots%20%26%5Cphi_b(x_1)%20%5C%5C%20%5Cvdots%20%26%5Cddots%20%26%5Cvdots%20%5C%5C%20%5Cphi_1(x_n)%20%26%5Ccdots%20%26%5Cphi_b(x_n)%20%5C%5C%20%5Cend%7Bpmatrix%7D

关于参数向量

math?formula=%5Ctheta的偏微分:

math?formula=%5Cnabla%20%5Ctheta_%7BLS%7D%20%3D%20(%5Cfrac%7B%5Cpartial%20J_%7BLS%7D%7D%7B%5Cpartial%20%5Ctheta_1%7D%2C%20%5Ccdots%2C%20%5Cfrac%7B%5Cpartial%20J_%7BLS%7D%7D%7B%5Cpartial%20%5Ctheta_b%7D)%3D%20%5CPhi%5ET%5CPhi%5Ctheta-%5CPhi%5ET%5Cmathbf%20y

math?formula=%5Cnabla%20%5Ctheta_%7BLS%7D%3D0

math?formula=J_%7BLS%7D(%5Ctheta)取得最小值, 此时最小二乘解满足

math?formula=%5CPhi%5ET%5CPhi%20%5Ctheta%3D%5CPhi%5ET%5Cmathbf%20y

解得:

math?formula=%5Chat%20%5Ctheta_%7BLS%7D%20%3D%20(%5CPhi%5ET%5CPhi)%5E%7B-1%7D%5CPhi%5ETy

注: 只有

math?formula=%5CPhi%5ET%5CPhi有逆矩阵时上式才成立

广义逆矩阵: 是对逆矩阵的推广, 只有方阵, 非奇异矩阵才有逆矩阵, 单矩形矩阵或奇异矩阵都可以定义广义逆矩阵

令广义逆矩阵为:

math?formula=%5CPhi%5E%7B%5Cdagger%7D%20%3D%20(%5CPhi%5ET%5CPhi)%5E%7B-1%7D%5CPhi%5ET

, 则

math?formula=%5Chat%20%5Ctheta_%7BLS%7D可写为:

math?formula=%5Chat%20%5Ctheta_%7BLS%7D%20%3D%20%5CPhi%20%5E%7B%5Cdagger%7Dy

最小二乘法学习基于三角多项式基函数的线性模型:

5af723f64af8

无约束最小二乘法解的性质

设计矩阵

math?formula=%5CPhi的奇异值分解:

math?formula=%5Cphi%20%3D%20%5Csum_%7Bk%3D1%7D%5E%7Bmin(n%2Cb)%7D%5Ckappa_k%5Cpsi_%7Bk%7D%20%5Cvarphi_k%5ET

math?formula=%5Ckappa_k%2C%20%5Cpsi_%7Bk%7D%2C%20%5Cvarphi_k分别称为奇异值, 左奇异向量, 右奇异向量.

奇异值非负

奇异向量满足正交性

math?formula=%5CPhi的广义逆矩阵:

math?formula=%5CPhi%5E%7B%5Cdagger%7D%20%3D%5Csum_%7Bk%3D1%7D%5E%7Bmin(n%2Cb)%7D%5Ckappa_k%5E%7B%5Cdagger%7D%5Cpsi_%7Bk%7D%20%5Cvarphi_k%5ET

math?formula=%5Ckappa%20_k%5E%7B%5Cdagger%7D是标量

math?formula=%5Ckappa的广义逆矩阵,

math?formula=%5Ckappa%5E%7B%5Cdagger%7D%20%3D%20%5Cfrac%7B1%7D%7B%5Ckappa%7D%20(%5Ckappa%20%5Cneq%200%E6%97%B6)

最小二乘解表示为:

math?formula=%5Chat%20%5Ctheta_%7BLS%7D%3D%20%5Csum_%7Bk%3D1%7D%5E%7Bmin(n%2Cb)%7D%5Ckappa_k%5E%7B%5Cdagger%7D(%5Cpsi_%7Bk%7D%5ETy)%20%5Cvarphi_k

模型输出向量变换为列向量:

math?formula=(f_%7B%5Chat%20%5Ctheta_%7BLS%7D%7D(x_1)%2C%20%5Ccdots%2C%20f_%7B%5Chat%20%5Ctheta_%7BLS%7D%7D(x_n))%5ET%20%3D%20%5CPhi%5Chat%20%5Ctheta_%7BLS%7D%20%3D%20%5CPhi%5CPhi%5E%7B%5Cdagger%7D%5Cmathbf%7By%7D

因此,

math?formula=%5CPhi%5CPhi%5E%7B%5Cdagger%7D

math?formula=%5CPhi的正交投影矩阵, 最小二乘法输出向量

math?formula=%5Cmathbf%20y是值域

math?formula=R(%5CPhi)的正交投影得到的.

带入真实函数中的参数

math?formula=%5Ctheta%5E*:

math?formula=(f(x_1)%2C%20%5Ccdots%2C%20f(x_n))%5ET%20%3D%20%5CPhi%20%5Ctheta%5E*

可知, 真的输出值向量就存在于

math?formula=R(%5CPhi)

结论: 用最小二乘法的向量若是由

math?formula=R(%5CPhi)的正投影得到的, 则可以有效去除y中的噪音:

5af723f64af8

噪声期望为0是,

math?formula=%5Chat%20%5Ctheta_%7BLS%7D就是真是参数

math?formula=%5Ctheta%5E*的无偏估计:

math?formula=E%5B%5Chat%20%5Ctheta_%7BLS%7D%5D%20%3D%20%5Ctheta%5E*

上式, E为噪声的期望

渐近无偏性:

增加训练样本n, 上式$E[\hat \theta_{LS}]会向着模型中最优参数方向收敛的性质

大规模学习

一般线性模型

math?formula=J_%7BLS%7D为凸函数.

凸函数: 连接任意两点

math?formula=%5Ctheta_1%2C%5Ctheta_2的线段一定在函数上不:

5af723f64af8

凸函数只有一个峰值,因此通过梯度法一定可以得到均方差

math?formula=J_%7BLS%7D在值域范围内的全局最优解

梯度法的收敛速度强烈依赖梯度下降步长, 以及收敛结果判定方式(提前终止).

2.带约束条件的最小二乘法

单纯的最小二乘法容易过拟合, 带约束的最小二乘法能控制模型复杂度, 降低过拟合.

部分空间约束的LS

含参线性模型, 使用全体参数空间:

math?formula=f_%7B%5Ctheta%7D(x)%20%3D%20%5Csum_%7Bj%3D1%7D%5Eb%5Ctheta_j%5Cphi_j(x)%20%3D%20%5Ctheta%5ET%5Cphi(x)

将参数空间限制在一定范围内, 防止过拟合:

math?formula=%5Cunderset%7B%5Ctheta%7D%7Bmin%7DJ_%7BLS%7D(%5Ctheta)%20%5Cquad%20%E7%BA%A6%E6%9D%9F%E6%9D%A1%E4%BB%B6%20P%5Ctheta%3D%5Ctheta

P是

math?formula=bxb维矩阵,是P的值域

math?formula=R(P)的正交投影矩阵

部分空间约束的最小二乘法解

math?formula=%5Chat%20%5Ctheta通过将设计矩阵

math?formula=%5CPhi置换为

math?formula=%5CPhi%20P求得:

math?formula=%5Chat%20%5Ctheta%20%3D%20(%5CPhi%20P)%5E%5Cdagger%5C%2C%20y

下图展示了添加部分空间约束对模型的影响:

5af723f64af8

image.png

上图用三角多项式作为基函数:

math?formula=%5Cphi(x)%20%3D%20(1%2C%20sin%5Cfrac%7Bx%7D%7B2%7D%2Ccos%5Cfrac%7Bx%7D%7B2%7D%2Csin%5Cfrac%7B2x%7D%7B2%7D%2Ccos%5Cfrac%7B2x%7D%7B2%7D%2C%20%5Ccdots%2C%20sin%5Cfrac%7B15x%7D%7B2%7D%2Ccos%5Cfrac%7B15x%7D%7B2%7D)%5ET

图(b)添加了约束条件, 将参数限制在

math?formula=(1%2C%20sin%5Cfrac%7Bx%7D%7B2%7D%2Ccos%5Cfrac%7Bx%7D%7B2%7D%2Csin%5Cfrac%7B2x%7D%7B2%7D%2Ccos%5Cfrac%7B2x%7D%7B2%7D%2C%20%5Ccdots%2C%20sin%5Cfrac%7B5x%7D%7B2%7D%2Ccos%5Cfrac%7B5x%7D%7B2%7D)%5ET

的部分空间内:

5af723f64af8

image.png

L2约束的LS

1. 标准L2约束的LS

部分空间约束的LS(最小二乘法), 正交投影矩阵P的设置自由度高, 操作难度大, 基于L2约束的LS相对较容易.

约束条件如下:

math?formula=%5Cunderset%7B%5Ctheta%7D%7Bmin%7DJ_%7BLS%7D(%5Ctheta)%5Cquad%20%E7%BA%A6%E6%9D%9F%E6%9D%A1%E4%BB%B6%5C%7C%5Ctheta%5C%7C%5E2%20%5Cleq%20R

L2参数空间:

5af723f64af8

L2约束的最小二乘学习法参数空间

如图, 是一个参数空间原点为圆心,R为半径内的圆(一般为超球)

引入拉格朗日对偶问题:

5af723f64af8

拉格朗日对偶问题

利用拉格朗日对偶问题, 求解:

math?formula=%5Cunderset%7B%5Clambda%7D%7Bmax%7D%20%5C%3B%5Cunderset%7B%5Ctheta%7D%7Bmin%7D%20%5B%20J_%7BLS%7D(%5Ctheta)%20%2B%20%5Cfrac%7B%5Clambda%7D%7B2%7D(%5C%7C%5Ctheta%5C%7C%5E2-R)%5D%20%5C%3B%20s.t.%5C%3B%5Clambda%20%5Cge%200

的最优解问题, 可得到最优化问题

math?formula=%5Cunderset%7B%5Ctheta%7D%7Bmin%7DJ_%7BLS%7D(%5Ctheta)的解.

上式中拉格朗日待定因子

math?formula=%5Clambda的解由圆半径R决定

简化版(不由R决定

math?formula=%5Clambda):

math?formula=%5Chat%7B%5Ctheta%7D%20%3D%20%5Cunderset%7B%5Ctheta%7D%20%7Bargmin%7D%5B%20J_%7BLS%7D(%5Ctheta)%20%2B%20%5Cfrac%7B%5Clambda%7D%7B2%7D%5C%7C%5Ctheta%5C%7C%5E2%5D

上式

math?formula=J_%7BLS%7D(%5Ctheta)表示对样本拟合程度, 与

math?formula=%5Cfrac%7B%5Clambda%7D%7B2%7D%5C%7C%5Ctheta%5C%7C%5E2组合得到最小是, 防止过拟合

上式令关于

math?formula=%5Ctheta的导数为0, L2约束的LS的解

math?formula=%5Ctheta可通过下式求解:

math?formula=%5Chat%20%5Ctheta%20%3D%20(%5CPhi%5ET%5CPhi%2B%5Clambda%20I)%5E%7B-1%7D%5CPhi%5ET%5Cmathbf%20y

上式结论:

将矩阵

math?formula=%5CPhi%5ET%5CPhi%E5%92%8C%5Clambda%20I相加提高其正则性, 进而更稳定地进行逆矩阵求解.

L2约束的LS也成为L2正则化的LS,

math?formula=%5C%7C%5Ctheta%5C%7C%5E2称为正则项,

math?formula=%5Clambda为正则化参数

L2正则化有时也称岭回归

将设计矩阵

math?formula=%5CPhi做奇异值分解:

math?formula=%5CPhi%20%3D%20%5Csum_%7Bk%3D1%7D%5E%7Bmin(n%2Cb)%7D%5Ckappa_k%5Cpsi_k%5Cvarphi_k%5ET

带入上上式, 则L2约束的LS解

math?formula=%5Chat%20%5Ctheta表示为:

math?formula=%5Ckappa_k%5Cpsi_k%5Cvarphi_k%5ET%5C%5C%20%5Chat%7B%5Ctheta%7D%20%3D%20%5Csum_%7Bk%3D1%7D%5E%7Bmin(n%2Cb)%7D%20%5Cfrac%7B%5Ckappa_k%7D%7B(%5Ckappa_k%5E2%20%2B%20%5Clambda)%7D%5Cpsi_k%5ETy%5Cvarphi_k

上式结论:

math?formula=%5Clambda%3D0时, L2约束的LS蜕化为一般的LS

设计矩阵

math?formula=%5CPhi计算条件恶劣,包含极小的奇异值

math?formula=K_k时,

math?formula=K_k%2FK_k%5E2%3D1%2FK_k变得极大, 训练输出

math?formula=%5Cvec%20y噪声会增加

分母

math?formula=K_k%5E2中加入正的常数

math?formula=%5Clambda, 避免

math?formula=K_k%2F(K_k%5E2%2B%5Clambda过大, 进而可防止过拟合

2. 高斯核模型的L2约束优化

高斯核模型

5af723f64af8

高斯核模型

L2约束优化

5af723f64af8

L2约束优化

math?formula=%E5%B8%A6%E5%AE%BDh%3D0.3%2C%20%E6%AD%A3%E5%88%99%E5%8C%96%E5%8F%82%E6%95%B0%5Clambda%3D0.1, 加入正则化项, 很好地抑制了过拟合.

根据标准高斯分布的函数图, 我们对比可以看出图中标红位置出现了过拟合.

2. 更一般L2约束的LS

标准L2约束的LS

问题表示:

math?formula=%5Cunderset%7B%5Ctheta%7D%7Bmin%7DJ_%7BLS%7D(%5Ctheta)%5C%3B%20s.t.%5C%3B%20%5C%7C%5Ctheta%5C%7C%5E2%20%5Cle%20R

math?formula=%5Chat%20%5Ctheta求解:

math?formula=%5Chat%7B%5Ctheta%7D%20%3D%20(%5CPhi%5ET%5CPhi%20%2B%20%5Clambda%20I)%5E%7B-1%7D%5CPhi%5ETy

更一般的L2约束的LS

使用

math?formula=bxb正则化矩阵G, 可得到更一般的表示:

问题表示:

math?formula=%5Cunderset%7B%5Ctheta%7D%7Bmin%7DJ_%7BLS%7D(%5Ctheta)%5C%3B%20s.t.%20%5C%3B%20%5Ctheta%5ET%20G%5Ctheta%20%5Cle%20R

math?formula=%5Chat%20%5Ctheta求解:

更一般的L2约束的LS解

math?formula=%5Ctheta求解过程, 和标准L2约束的LS大体相同:

math?formula=%5Chat%7B%5Ctheta%7D%20%3D%20(%5CPhi%5ET%5CPhi%20%2B%20%5Clambda%20G)%5E%7B-1%7D%5CPhi%5ETy

参数空间:

矩阵G对称正定时,

math?formula=%5Ctheta%5ETG%5Ctheta%20%5Cleq%20R%20%E2%80%8B将数据限制在椭圆区域内. 下图为更一般的L2约束的LS参数空间:

5af723f64af8

一般L2约束LS的参数空间

3. 模型选择

部分空间约束或L2约束的LS, 都过分依赖正交投影矩阵P和 正则化参数λ的选择

选择合适的P和λ至关重要

采用不同的输入样本, 决定算法中各个参数值的过程称为模型选择

下图展示一个高斯核模型+L2约束的LS中, 带宽

math?formula=h和正则化参数

math?formula=%5Clambda的变化对学习结果的影响:

5af723f64af8

image.png

模型选择流程:

5af723f64af8

image.png

实际应用中常用交叉验证法, 拿出一部分训练样本做测试, 不参与学习, 值评价最终学习结果的泛化误差

5af723f64af8

image.png

交叉验证法流程:

5af723f64af8

交叉验证

K折交叉验证:

训练集分割为k个集合, 需进行k次学习, 由于各学习过程相互独立, 可以并行计算.

留一交叉验证:

设有n个样本, 每次留下一个样本做测试集, 其余n-1个训练, 共需要训练n次, 测试n次

计算繁琐, 样本利用率高, 适合小样本学习

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值