2.1 感知机模型及策略

在这里插入图片描述

一、感知机模型

1.感知机定义

定义(感知机):假设输入空间(特征空间)是 χ ⊆ R n \chi\subseteq R^n χRn,输出空间是 Y = { + 1 , − 1 } Y = \{+1,-1\} Y={+1,1},输入 x ∈ χ x\in\chi xχ 表示实例的特征向量,对应于输入空间(特征空间)的点;输出 y ∈ Y y\in Y yY 表示实例的类别,由输入空间到输出空间的如下函数: f ( x ) = s i g n ( ω ⋅ x + b ) f(x)=sign(\omega \cdot x + b) f(x)=sign(ωx+b) 称为感知机。其中, ω \omega ω b b b 为感知机模型参数, ω ∈ R n \omega \in R^n ωRn 叫做权值(weight)或权值向量(weight vector), b ∈ R b \in R bR 叫做偏置(bias), ω ⋅ x \omega \cdot x ωx 表示 ω \omega ω x x x 的内积, s i g n sign sign是符号函数,即:
在这里插入图片描述

2.感知机几何解释

在这里插入图片描述
在一个数据集中,我们将正类用“o”表示,将负类用"×"表示,每个数据集我们取两个特征值 x i = ( x i 1 , x i 2 ) x_i=(x_i^1,x^2_i) xi=(xi1,xi2),各点的分布如上图,横坐标为 x 1 x^1 x1,纵坐标为 x 2 x^2 x2。感知机模型就是能较好的将正负类区分的一个超平面1,具体函数为: f ( x ) = s i g n ( ω ⋅ x + b ) f(x)=sign(\omega \cdot x + b) f(x)=sign(ωx+b),其中 ω \omega ω 是超平面的法向量, b b b是超平面的截距。

当然,类似的超平面有有很多。比如
在这里插入图片描述
f ( x ) , f ′ ( x ) f(x),f'(x) f(x),f(x) 都可以称为超平面,这些函数的集合 { f ∣ f ( x ) = ω ⋅ x + b } \{f|f(x)=\omega \cdot x + b \} {ff(x)=ωx+b} 称为感知机模型的假设空间

二、感知机学习策略

1.数据集的线性可分性

定义(数据集的线性可分性):给定一个数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } T = \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\} T={(x1,y1),(x2,y2),...,(xN,yN)}其中, x i ∈ χ = R n x_i \in \chi =R^n xiχ=Rn y i = Y = { + 1 , − 1 } , i = 1 , 2 , . . . , N y_i=Y=\{+1,-1\},i=1,2,...,N yi=Y={+1,1},i=1,2,...,N ,如果存在某个超平面 S S S能够将数据集的正实例点和负实例点完全正确的划分到超平面的两侧,即对所有 y i = + 1 y_i=+1 yi=+1 的实例 i i i,有 ω ⋅ x i + b > 0 \omega\cdot x_i + b >0 ωxi+b>0,对于所有 y i = − 1 y_i=-1 yi=1 ,有 ω ⋅ x i + b < 0 \omega\cdot x_i + b <0 ωxi+b<0,则称数据集 T T T 为线性可分数据集(linearly separable data set),否则,称数据集 T T T 线性不可分。

2.感知机学习策略

感知机学习策略,主要是梳理,在给定一个线性可分的数据集后,如何得到将正实例点和负实例点完全正确分开的分离超平面2,换句话将,就是如何得到感知机函数中的 ω , b \omega,b ω,b这两个参数。

感知机采用误分类点到超平面 S S S 的总距离作为损失函数。因为该损失函数满足连续可导,容易优化3

Step 1: 写出输入空间 R n R^n Rn 中任意一点 x 0 x_0 x0 到超平面 S S S 的距离4 1 ∣ ∣ ω ∣ ∣ ∣ ω ⋅ x 0 + b ∣ \frac{1}{||\omega||}|\omega\cdot x_0 + b| ∣∣ω∣∣1ωx0+b

Step 2: 对于误分类的数据 ( x i , y i ) (x_i,y_i) (xi,yi),始终存在: − y i ( ω ⋅ x i + b ) > 0 -y_i(\omega \cdot x_i +b) > 0 yi(ωxi+b)>0 所以误分类点的距离之和为:

在这里插入图片描述
Step 3 :简化感知机损失函数为:
在这里插入图片描述
其中, M M M 为误分类点的集合,这个损失函数就是感知机学习的经验风险函数。

关于不用考虑 − 1 ∣ ∣ ω ∣ ∣ -\frac{1}{||\omega||} ∣∣ω∣∣1的个人理解:
不用考虑是因为,我们之前假设的数据集首先是一个线性可分的数据集,这就确保了必然存在一个感知机能够将正实例点和负实例点完全分开,套用在公式中,就是肯定存在误分类点到分离超平面的距离之和为0的情况,所以我们只要使 L ( ω , b ) = 0 L(\omega,b)=0 L(ω,b)=0 即可,故不用考虑 − 1 ∣ ∣ ω ∣ ∣ -\frac{1}{||\omega||} ∣∣ω∣∣1

Step 4: 由于损失函数 L ( ω , b ) L(\omega,b) L(ω,b) 是非负的,所以其最小值为0,即没有误分类的情况。感知机学习的策略是在假设空间中选取使损失函数最小的模型参数 ω , b \omega,b ω,b,即感知模型。

三、希望大家一起探讨的点

在书P38,第二段中,有这么一句话:“误分类点越少,误分类点里超平面越近,损失函数值就越小”。 大家怎么理解这句话?
个人认为,误分类点的多少并不能决定损失函数值的大小,比如
在这里插入图片描述
在上图中, f ( x ) f(x) f(x) 感知机模型有2个误分类点, f ′ ( x ) f'(x) f(x)感知机有1个误分类点,很明显, f ‘’ ( x ) f‘’(x) f‘’(x) 的损失函数要大于 f ( x ) f(x) f(x) 的损失函数。

所以个人认为,损失函数值的大小只与误分类点与超平面的距离成正比,与误分类点的多少无关。不知道可不可以这样理解。


  1. 所谓超平面,就是能够将数据有效进行分离的一个平面,在图中,我们对一个数据仅选取两个特征值,主要是为了方便观察,所以,图中的感知机模型为一条直线,当特征值选取为3个,或者更多时,数据的分布就会扩展到3维或者高维度中,相对应的感知机模型也会成为一个面,或者一个能将高维度数据分割的分割体。对于这些模型机,我们统一称之为超平面。 ↩︎

  2. 能将正实例点和负实例点完全正确分开的超平面,称为分离超平面 ↩︎

  3. 当函数满足连续可导时,对该函数进行偏微分,将偏微分等于0计算出的值,就是函数的极值。 ↩︎

  4. 点到直线的距离公式为: d = ∣ A x 0 + B y 0 + C A 2 + B 2 ∣ d=| \frac{Ax_0+By_0+C}{\sqrt{A^2+B^2}}| d=A2+B2 Ax0+By0+C,对应到图中例子,其坐标为 x = ( x 1 , x 2 ) x=(x^1,x^2) x=(x1,x2) 对应公式中的 ( x , y ) (x,y) (x,y) , ω = ( ω 1 , ω 2 ) \omega = (\omega^1,\omega^2) ω=(ω1,ω2)对应公式中的 A , B A,B A,B ∣ ∣ ω ∣ ∣ = ( ω 1 ) 2 + ( ω 2 ) 2 = A 2 + B 2 ||\omega||=\sqrt{(\omega^1)^2+(\omega^2)^2}=\sqrt{A^2+B^2} ∣∣ω∣∣=(ω1)2+(ω2)2 =A2+B2 ,从而得到Step 1 中的距离公式。 ↩︎

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
联通中兴zxv10 b860av2.1 u顶盒刷需要特别注意,因为刷操作不当会导致顶盒变砖,无法正常使用。在刷之前,首先需要了解一些基本的知识。刷就是将顶盒原有的系统替换为自己制作或选择的系统。刷成功后,顶盒可以获得更多的功能和更好的性能,但同时也存在风险,对顶盒的使用有一定的限制。 刷之前,应该备份顶盒中的重要数据和文件,尤其是用户自己添加的软件、数据和信息。在备份的同时,要确保备份的数据和文件的完整性和正确性,以免出现重要数据遗失或丢失的情况。备份好的数据和文件可以通过U盘或者其他存储设备进行备份和迁移。 另外,刷之前还需要下载相应的刷工具和相应的固件。在下载时需要确认所使用的工具和固件的版本和兼容性,以免因版本不匹配或者兼容性问题导致刷失败或顶盒变砖。下载完成后,还需要进行病毒查杀和确认文件完整性,以免下载到恶意软件或者被篡改的固件,导致刷失败或者顶盒受损。 最后,在刷过程中需要遵循操作步骤和提示,不要随意操作或者中断刷过程。如果在刷过程中出现问题,应该及时联系厂商或者专业人员,进行修复或者调试。遵守以上注意事项,可以让刷过程更加安全和高效,确保顶盒的正常使用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值