转载自未雨愁眸 https://www.cnblogs.com/mtcnn/p/9421836.html
1. 简介
字典 D∈RN×K(其中 K>N),共有 k 个原子,x∈RN×1 在字典 D 下的表示为 w,则获取较为稀疏的 w 的稀疏逼近问题如下表示:
wopt=argminw∥w∥p+γ∥x−Dw∥22p∈{0,1}
γ 越大,得到的解越稠密(dense)。
- p=0,通过 MP(matching pursuit)匹配追踪算法求解,比如 ORMP(order recursive matching pursuit);
- p=1,通过 LARS 算法求解;
- ORMP 还是 LARS 均是基于贪心的思路求解;
2. 字典学习
在给定训练集 X∈RN×L 的情况下,字典学习用来求解字典 D∈RN×K(∥di∥=1,i=1,2,…,K),及其对应的系数矩阵 W∈RK×L,此时的表示误差为 R=X−DW。
{Dopt,Wopt}=argminD,W∑ℓ=1L∥wℓ∥+γ∥X−DW∥2
3. 求解
-
MOD or ILS-DLA
MOD(Method of Optimized Directions),ILS-DLA(iterative least squares dictionary learning algorithms)
此时迭代算法的思路分为如下三步:
- 固定 D,求解 W
- 固定 W,根据最小二乘法求解 D=(XWT)(WWT)−1
- 归一化 D,也即将其各个列缩放为单位向量;
for i = 1:noIt W = sparseapprox(X, D, 'mexOMP', 'tnz', s); D = (X*W')/(W*W'); D = dictnormalize(D); end
-
K-SVD
K-SVD 也是基于迭代求解思路而提出的算法,迭代主要分为如下两步:
- 固定 D,求解 W;
- 记录 W 中非零的元素,使用 SVD 分解更新 D 和 W;
% X: N*L, D: N*K, W: K*L for i = 1:noIt W = sparseapprox(X, D, 'mexOMP', 'tnz', s); R = X - D*W; for k=1:K % 找到非零列 I = find(W(k, :)); Ri = R(:, I) + D(:, k)*W(k, I); % 奇异值分解 [U, S, V] = svds(Ri, 1, 'L'); % 更新 D(:, k) = U; W(k, I) = S*V'; R(:, I) = Ri - D(:, k)*W(k, I); end end