一、感知机模型
1、感知机定义:假设输入空间(特征空间)是,输出空间是。输入表示实例的特征向量,对应于输入空间的点;输出y表示实例的类别。由输入空间到输出空间的如下函数
称为感知机。 称为权值(weight)或权值向量(weight vector), 叫做偏置(bias)。 表示两者的内积。sign是符号函数:
。
感知机的几何解释:线性方程 对应于特征空间中的一个超平面S,其中 是超平面的法向量,b是超平面的截距。这个超平面将特征空间划分为两个部分。这两部分的点分别称为正、负两类。因此,超平面S称为分离超平面,如下图所示。
感知机学习主要为了求得 和 b ,感知机预测:通过学习得到的感知机模型,对于新的输入实例给出其对应的输出类别。
二、感知机学习策略
1、数据集的线性可分性:给定数据集 ,其中,, , ,如果存在某个超平面S: ,能够将数据的正负实例完全正确地划分到超平面的两侧,即对所有的 的实例 i,有 ,对所有的实例 i,有 , 则称数据集T为线性可分数据集。否则,称数据集T线性不可分。
2、感知机学习的目标是为了求得一个能够将训练集正实例点和负实例点完全正确分开的分离超平面。为了找出这样的超平面(即确定和b),需要确定一个学习策略,即定义损失函数并将损失函数最小化。
损失函数是误分类点到超平面S的距离: ,其次,对于误分类的数据 来说,- 。因为当 ,,当 , 。因此,误分类点到超平面的距离为:。假设超平面S的误分类点集合为M。那么,所有误分类点到超平面S的总距离为: ,不考虑 ,得损失函数为:
给定数据集: ,其中,, , ,感知机学习的损失函数定义为: ,这个损失函数就是感知机学习的经验风险函数。
三、感知机的数学表达
输入:训练数据集 ,其中,, ,;学习率();
输出: ;感知机模型。
(1)选取初值
(2)在训练集中选取数据
(3)如果
(4)转到(2),直至训练集中没有误分点。
四、算法的收敛性
对于线性可分数据集感知机学习算法原始形式收敛,即经过有限次迭代可以得到一个将训练数据集完全正确划分的分离超平面及感知机模型。
为了便于叙述与推导,将偏置 b 并入权重 ,记作 ,同样也将输入向量加以扩充,加入常数1,记作 。这样, ,显然, 。
定理 (Novikoff): 设训练数据集 ,是线性可分的,其中 ,则
(1)存在满足条件 ,的超平面 将训练数据集完全正确分开;且存在 ,对所有i=1,2,...,N,
(2)令 ,则感知机算法在训练数据集上的误分类次数k满足不等式
五、感知机学习算法的对偶形式
对偶形式的原理,将 和 b 表示为实例 和标记 的线性组合的形式。
算法 (感知机学习算法的对偶形式)
输入:线性可分的数据集 ,其中 ;学习率 ;
输出:a,b;感知机模型 。
其中 。
(1)
(2)在训练集中选择数据
(3) 如果
(4)转至(2)直到没有误分类数据。