机器学习
Luna_Lovegood_001
计算机视觉专业
展开
-
Hopfield神经网络-从诞生到实践
在看随机神经网络的时候,发现许多都提到了玻尔兹曼机。Hopfield神经网络是玻尔兹曼机的基础。所以来学习了H网络。Hopfield网络是最早被提出具有稳定性的反馈网络之一,对后来的工作有很大的影响,例如Hinton就受此启发提出了玻尔兹曼机(听这名字就知道也是跟物理学有关系)。0 简介 Hopfield神经网络是个老古董了,它把生物的联想记忆用物理意义非常直观的方式表示出来,从物理学的角度对记忆和学习给出了有意思的解释,其背后蕴藏的思想深远,称得上是经典或者说里程碑。最原始的Hopfield神经.原创 2020-09-04 09:52:15 · 1708 阅读 · 0 评论 -
非负矩阵分解(non-negative matrix factorization)应用于图像处理的原理及与PCA,VQ的比较
本文主要总结为什么非负矩阵分解能够用于图像压缩,以及分解出的矩阵究竟有什么实际意义原创 2020-06-13 07:37:49 · 3064 阅读 · 0 评论 -
out-of-sample extension
在进行降维(dimensionality reduction (DR) )的学习的时候,发现了一个名词:out-of-sample extension 不太明白这是什么意思,然后发现百度几乎搜不到这些东西,也没有什么国内的博客。但是如果搜索英文“out-of-sample extension”,却可以找到不少的文献。...原创 2020-02-29 12:05:42 · 1885 阅读 · 1 评论 -
使用LDA进行数据降维与分类
LDA是一种以目标:类重心点距离最大类内点距离小但是对于情况:两个类重心点很近,但是各个点距离很远的情况,适用性不好。下面举个例子。1、数据生成首先建立一个函数%生成一系列园点function [x1,y1] = creat_circle(r1 , r1_ratio,sita_ratio)sita = 0:0.05:2*pi;all_num = size(sita);all...原创 2020-02-25 17:06:38 · 3237 阅读 · 0 评论 -
使用pca进行坐标系转换、降维
利用PCA进行坐标系转换pca是一种常用的数据降维的方法,而其中的降维的步骤就是:选取前 k 个特征值。如果我们不选择这个步骤,那么就不会进行降维了,反而会进行坐标系的转换。具体步骤1、首先生成高斯二维分布的数据matlab代码mul = [1 2];SIGMA = [1 0.81; 0.81 1];data1 = mvnrnd(mul,SIGMA,500);plot(da...原创 2020-02-24 15:23:43 · 2649 阅读 · 0 评论 -
多维缩放(Multiple Dimensional Scaling)MDS-机器学习
多维缩放(Multiple Dimensional Scaling)MDS1算法目的一般的数据是高维的,但是与学习任务相关的一般是某个低维度的分布,即一个低维的嵌入。如上图所示2 算法推导算法的原则是:原始空间中样本之间的距离在低维度能够保持算法的目标:获得样本在低维度空间的坐标,且两个任意样本在低维度空间的欧式距离等于原始空间的距离。具体的算法推导可以看看其他的博客,很多都说的...原创 2020-02-05 09:18:51 · 1206 阅读 · 0 评论