学习矢量量化(LVQ)

本文介绍了矢量量化(LVQ)神经网络,包括自组织竞争神经网络和自组织特征映射(SOFM)神经网络的结构与训练过程。LVQ网络通过权值调整实现输入向量的分类,SOFM则利用二维神经元结构和局部连接进行特征学习。学习过程涉及Kohonen学习规则、阈值调整和不同的神经元拓扑结构。详细内容可参考链接。
摘要由CSDN通过智能技术生成

一 自组织竞争神经网络 net=newc([0 1;0 1],2)
1. 网络结构
单层神经元网络 输入节点与输出节点之间全互联
竞争是神经元之间的竞争;当神经元赢时,该神经元输出为1,否则为0。
2. 训练过程
权值调整――Kohonen学习规则:dw=learnk(w,p,[],[],a,[],[],[],[],[],lp,[]);
只对获胜的神经元权值进行调整,使得网络的权值趋向于输入向量。结果,获胜的神经元对将来再次出现的相似向量(能被阈值b所包容的)更加容易赢得该神经元的胜利。最终实现了对输入向量的分类。
阈值调整――阈值学习规则:[dB,LS]=learncon(B,P,Z,N,A,T,E,gW,gA ,D,LP,LS)
使经常活动的神经元的阈值越来越小,并且使得不经常活动的神经元活动更加频繁。

二 自组织特征映射(SOFM)神经网络
1. 网络结构
在结构上模拟了大脑皮层中神经元呈二维空间点阵的结构

输入层和竞争层组成单层神经网络 :
输入层:一维神经元 n节
竞争层:二维神经元拓扑结构 相互间可能有局部连接

拓扑结构: 矩形网格 gridtop()
六角形 hextop()
随机结构 randtop()

神经元间距: 欧氏距离 dist();box距离 boxdist();
link距离 linkdist();manhattan距离 mandist()

  1. 训练过程
    对获胜节点及半径k内节点进行权值调整,且k越来越小,直到只包含获胜节点本身为止;这样,使得对于某类模式,获胜节点能作出最大响应,相邻节点作出较少响应。
    权值调整――learnsom():
    排序阶段:学习率由初始值下降至调整阶段学习率;邻域大小由最大神经元距离减小到1
    调整阶段:学习率缓慢下降,直到0;邻域大小一直为1。学习矢量量化(LVQ)神经网络
  2. 网络结构
    竞争层(隐层)+线性层
    线性层的一个期望类别对应竞争层中若干个子类
  3. 学习规则
    竞争层将自动学习对输入向量进行分类,这种分类的结果仅仅依赖于输入向量之间的距离。如果两个输入向量特别相近,竞争层就把他们分在同一类。

详细介绍见:http://www.doc88.com/p-8495503025413.html

function [dw,ls] = learnlv3(w,p,z,n,a,t,e,gW,gA,d,lp,ls)
%LEARNLV2 LVQ2 weight learning function.
%
%   Syntax
%   
%     [dW,LS] = learnlv3(w,p,n,a,T,lp,ls,Ttrain,C)
%     info = learnlv2(code)
%
%   Description
%
%     LEARNLV3 is the OLVQ weight learning function.
%
%     LEARNLV2(W,P,Z,N,A,T,E,gW,gA,D,LP,LS) takes several inputs,
%       W  - SxR weight matrix (or Sx1 bias vector).
%       P  - RxQ
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值