导读
w控制直线的旋转,b控制平移
感知机模型的对偶形式
对偶算法更新的数据量能少很多,因为w是个向量,每次要求w和x的内积,而对偶算法的内积能提前算好,实例之间的内积可以提前得到
随机梯度下降
梯度方向是函数值增速最快的方向,所以要下降就是往这个梯度的反方向更新
每次用一个实例更新,更新后再用的的w和b去判断实例是否是误分类点
算法收敛性修正
假设感知机模型是线性可分的
做了一个等价变换
第一部分的证明
第二部分证明 修正次数k有上界
所有实例二范数的最大值,可以理解成向量的长度
分两步走证明这一部分
1、
递推证明
就得到了第一部分的结论
第二部分证明
二范数拆分
因此可得
因为误分类点带入一定小于0 所以下面式子中间那个部分一定小于0
w初值为0
然后根据1和2推导
这里补充说明1和2就是在说w和wopt的方向会越来越一致
首先根据柯西不等式
感知机自编程作业