- 博客(4)
- 资源 (4)
- 收藏
- 关注
原创 自组织神经网络SOM算法对Iris数据集进行聚类的matlab实现
SOM算法原理SOM算法是一种将高维数据通过两层神经网络(输入层和竞争层)映射至用户定义的拓扑结构中,一般常用2D矩阵拓扑结构。下图是对SOM的形象展示:所以算法一般分为以下几步:第一:用户自定义拓扑结构,并对其中的每个节点的自身向量做随机初始化,向量长度与训练数据的维度相等。第二:将一条训练数据输入至神经网络,节点间展开竞争,节点的自身向量与训练数据的欧式距离最短者作为获胜节...
2018-10-16 15:38:16 10478 3
原创 Matlab为结构体数组预分配内存
在编写一个循环来给结构体数组中的某个结构体单元赋值时,matlab会提示“变量‘xxx’似乎会随着迭代次数而改变,请预分配内存以提高算法效率”。下面介绍一种预分配内存的方式:首先,应该先定义好结构体数组中的单个结构体的数据结构,如:person=struct('name',[],'age',0,'sex',[]);然后,确定在算法中自己所需的结构体数组的维度,如:30*40;最后,调用...
2018-10-17 14:06:38 10055
原创 SVM——传说中的核技巧
SVM说白了,就分三种应用方式: (1)线性可分(硬间隔) (2)线性不可分,但大致可分(软间隔) (3)线性不可分,最优超平面误差极大,如异或问题区分{(0,0),(1,1)}和{(0,1),(1,0)}这两类,超平面无最优解,至少都有50%的误差,于是就要用到传说中的核函数(核技巧) 这篇文章将通过简单的例子,解释下这传说中的核技巧思想。其实说到底...
2018-06-21 09:42:31 1628
原创 SVM Detail:为何硬间隔与软间隔的对偶问题是一致的?
硬间隔分类即线性可分支持向量机,软间隔分类即线性不可分支持向量机,利用软间隔分类时是因为存在一些训练集样本不满足函数间隔(泛函间隔)大于等于1的条件,于是加入一个非负的参数 ζ (松弛变量),让得出的函数间隔加上 ζ 满足条件。于是软间隔分类法对应的拉格朗日方程对比于硬间隔分类法的方程就多了两个参数(一个ζ ,一个 β),但是当我们求出对偶问题的方程时惊奇的发现这两种情况下的方程是一致的。下面我说...
2018-06-01 15:04:05 1167
PageRank算法的Matlab实现
2018-06-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人