感知器作为第一个算法上完整描述的神经网络,有很重要的学习必要。
感知器是用于线性可分模式分类的最简单的神经网络模型。
Rosenblatt证明了当用来训练感知器的模式来自两个线性可分的类时,感知器的算法是收敛的,并且决策面是位于两类之间的超平面。
对于基本感知器的权值向量自适应算法可以由以下表示:
1、假设某个成员x的第n次迭代,x(n)的权值为w(n)并且该权值能正确分类那么下面的规则就不做更改
w(n+1)=w(n);//假如w转置x(n)>x(n)且x(n)属于类1
w(n+1)=w(n);//假如w转置x(n)≤x(n)且x(n)属于类2
2、若不满足上述规则,那么权值向量做如下更改
w(n+1)=w(n)-n(n)x(n);//假如w转置x(n)>x(n)且x(n)属于类2,其中n(n)为学习率参数,与迭代次数无关
w(n+1)=w(n)+n(n)x(n);//假如w转置x(n)>x(n)且x(n)属于类1
以上方法称为感知器的收敛定理
对于学习效率来讲,有一个相互冲突的需求,首先需要一个较为稳定的权值估计,所以需要较小的n;
但是对于效率来讲,n越大收敛速度越快。
此文为读后感《神经网络与机器学习》