为什么用生长型神经气体网络(GNG)?

文章目录

本文对于生长型神经气体网络做了简单的整理,在算法背景上进行着重介绍,不管做什么,目的性要明确,为什么需要用生长型神经气体网络?那么就要对算法提出的前提与背景有一定认识,这样在应用中才能有目的性的选择并使用

图中理解什么是GNG?
在这里插入图片描述

开始两个神经元,随着网络不断迭代学习,根据误差增加神经元个数,从而实现对原始数据的拓扑结构拟合效果,图应该从左边一列再到右边一列

1. 背景

上世纪 90 年代,人工神经网络研究人员得出了一个结论:有必要为那些缺少网络层固定拓扑特征的运算机制,开发一个新的类。也就是说,人工神经在特征空间内的数量和布置并不会事先指定,而是在学习此类模型的过程中、根据输入数据的特性来计算,独立调节也与其适应。我们注意到,CNN/RNN这种在训练开始前就预先设置好了网络的神经元拓朴结构而训练的过程只是在调整这些神经元的参数,对于无监督学习的场景来说,大多数情况下,我们是无法预先知道输入数据空间的拓朴分布的。

理解上就是GNG是一种动态增长型神经网络,举个例子,对于神经网络中有的任务需要选择小的网络结构,有的需要使用大的网络结构,GNG相当于是按需增长型以完成对输入的拓扑结构学习。

实际场景中,就是因为出现了大量输入参数的压缩和向量量化受阻的实际问题,比如语音与图像识别、抽象范式的分类与识别等。当输入不一致的,如果要进入深度神经网络DNN/CNN训练,是必须要进行裁剪压缩等处理,这可能会丢失一部分的输入数据的拓朴结构。

这里可以理解为PCA降维过程中,保留主要信息,但是破坏了原有特征间的联系,无法保持拓扑结构的问题。

自组织映射与赫布型学习已为人所知(尤其是生成网络拓扑即在神经元之间创建一系列连接,构成一个"框架"层的算法),而且 “软” 竞争学习的方法亦已算出(在此类流程中,权重不仅适应"赢家"神经元,还适用其"近邻"神经元,本次竞争失败的神经元也要调整一下自己的参数,争取下次成功),合理的步骤是将上述方法结合起来,而这已由德国科学家 Bernd Fritzke 于 1995 年完成,从而创建了如今的流行算法 “生长型神经气”(GNG)

GNG原文地址:https://proceedings.neurips.cc/paper/1994/hash/d56b9fc4b0f1be8871f5e1c40c0067e7-Abstract.html

此方法被证实非常成功,所以出现了一系列由其衍生的修改版本;其中之一就是监督式学习的改编适应版本 (Supervised-GNG)。勿庸置疑,GNG 要优于 “K-means” 聚类。

2. 算法

GNG 是一种允许实施输入数据自适应聚类的算法,也就是说,不仅将空间划分为群集,还会基于数据的特性确定其所需数量。该算法只以两个神经元开始,不断变化它们的数量(多数情况下是增长),同时利用竞争赫布型学习法,在神经元之间创建一系列最佳对应输入向量分布的连接。每个神经元都有一个累积所谓“局部误差”的内部变量。节点之间的连接则以一个名为 “age” (年龄)的变量为特征。

算法细节暂时略,后期补上,主要理解算法背景与应用。

参考链接:Self-organizing Maps及其改进算法Neural gas聚类在异常进程事件识别可行性初探 - 郑瀚Andrew.Hann - 博客园 (cnblogs.com)

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值