一 自组织竞争神经网络 net=newc([0 1;0 1],2)
1. 网络结构
单层神经元网络 输入节点与输出节点之间全互联
竞争是神经元之间的竞争;当神经元赢时,该神经元输出为1,否则为0。
2. 训练过程
权值调整――Kohonen学习规则:dw=learnk(w,p,[],[],a,[],[],[],[],[],lp,[]);
只对获胜的神经元权值进行调整,使得网络的权值趋向于输入向量。结果,获胜的神经元对将来再次出现的相似向量(能被阈值b所包容的)更加容易赢得该神经元的胜利。最终实现了对输入向量的分类。
阈值调整――阈值学习规则:[dB,LS]=learncon(B,P,Z,N,A,T,E,gW,gA ,D,LP,LS)
使经常活动的神经元的阈值越来越小,并且使得不经常活动的神经元活动更加频繁。
二 自组织特征映射(SOFM)神经网络
1. 网络结构
在结构上模拟了大脑皮层中神经元呈二维空间点阵的结构
输入层和竞争层组成单层神经网络 :
输入层:一维神经元 n节
竞争层:二维神经元拓扑结构 相互间可能有局部连接
拓扑结构: 矩形网格 gridtop()
六角形 hextop()
随机结构 randtop()
神经元间距: 欧氏距离 dist();box距离 boxdist();
link距离 linkdist();manhattan距离 mandist()
- 训练过程
对获胜节点及半径k内节点进行权值调整,且k越来越小,直到只包含获胜节点本身为止;这样,使得对于某类模式,获胜节点能作出最大响应,相邻节点作出较少响应。
权值调整――learnsom():
排序阶段:学习率由初始值下降至调整阶段学习率;邻域大小由最大神经元距离减小到1
调整阶段:学习率缓慢下降,直到0;邻域大小一直为1。学习矢量量化(LVQ)神经网络 - 网络结构
竞争层(隐层)+线性层
线性层的一个期望类别对应竞争层中若干个子类 - 学习规则
竞争层将自动学习对输入向量进行分类,这种分类的结果仅仅依赖于输入向量之间的距离。如果两个输入向量特别相近,竞争层就把他们分在同一类。
详细介绍见:http://www.doc88.com/p-8495503025413.html
function [dw,ls] = learnlv3(w,p,z,n,a,t,e,gW,gA,d,lp,ls)
%LEARNLV2 LVQ2 weight learning function.
%
% Syntax
%
% [dW,LS] = learnlv3(w,p,n,a,T,lp,ls,Ttrain,C)
% info = learnlv2(code)
%
% Description
%
% LEARNLV3 is the OLVQ weight learning function.
%
% LEARNLV2(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) takes several inputs,
% W - SxR weight matrix (or Sx1 bias vector).
% P - RxQ