LLE((locally linear embedding) 局部线性嵌入算法 Manifold Learning

LLE算法可以归结为三步:

(1)寻找每个样本点的k个近邻点;

(2)由每个样本点的近邻点计算出该样本点的局部重建权值矩阵;

(3)由该样本点的局部重建权值矩阵和其近邻点计算出该样本点的输出值。

    

矩阵化:

=》

=》4式   =》

同时

=》根据拉格朗日乘子法

=》

=》求导 = 0可得

=》归一化后

此时我们得到了高维的权重系数,但是我们希望低维依然保持线性,如下

=》

tips:在线性代数中,一个n×n矩阵A主对角线(从左上方至右下方的对角线)上各个元素的总和被称为矩阵A(或迹数

=》

=》拉格朗日乘子法

=》对Y求导可得=》MY=λY

=》即求M的的最小d个特征向量即可

=》于是我们可以想到,先求权重系数矩阵,然后再求M矩阵,最后获得M的d+1个特征向量组成的D矩阵,则完成了计算。

matlab

1:compute pairwise distances & find neighbour

distance = repmat(X2,N,1)+repmat(X2',1,N)-2*X'*X;

[sorted,index] = sort(distance);

neighborhood = index(2:(1+K),:);

2.计算权重矩阵

for i = 1:N
    A = X(:,neighborhood(:,i))-repmat(X(:,i),1,k); % 求A是把找到的5个相似块减去与其相似的低分辨率快的差值
    C = A'*A; % 计算局部协方差 求的是相似块之间的协方差 计算五个快的相关性
    C = C+eye(k,k)*tol*trace(C); % C+的部分迭代终止误差限 防止C过小 对数据正则化 为了数据的统一
    W(:,i) = C\ones(k,1); % 解方程Gw=e,高斯消去复杂度O(K^3)
    W(:,i) = W(:,i)/sum(W(:,i)); % 解向量w归一化 计算权重矩阵
end

3.M矩阵

M=sparse(1:N,1:N,ones(1,N),N,N,4*k*N); % M=(I-W)'(I-W); 稀疏矩阵

 

for i=1:N
    w=W(:,i);
    j=neighborhood(:,i);
    M(i,j)=M(i,j)-w';
    M(j,i)=M(j,i)-w;
    M(j,j) = M(j,j) + w*w';
end

4.计算非零对应的特征向量

[Y,eigenvals]=eigs(M,d+1,0,opts); % 返回 d+1 个最小特征值 指定选项结构 由大到小降序 0相当于sm 即取最小的特征值

 

https://blog.csdn.net/xiaozhouchou/article/details/51866685

 

 

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值