论文笔记8:Decomposable Nonlocal Tensor Dictionary Learning for Multispectral Image Denoising

引言

本文结合MSI的两个特性:空间上的非局部相似性和光谱的全局相关性,提出了一种新的用于MSI去噪的张量字典学习模型。一方面,一个典型的自然场景包含了遍布整个空间的相似的局部块(patches)集合,由微观结构的同源聚集组成。通过在这些非局部相似的块之间求平均值,空间噪声有望得到显著缓解。另一方面,MSI包含大量的光谱冗余。也就是说,在不同波段获得的图像总是高度相关的。通过从这些全局相关的光谱信息中提取主成分,期望消除光谱MSI噪声(次要成分)。
在这里插入图片描述
在我们的模型中,我们使用一个分组稀疏正则化器来施加相似的MSI块,在它们的稀疏分解中共享相同的字典原子,从而隐式地平均这些块之间的噪声。此外,通过假设空间和光谱上的冗余字典,所提出的张量字典学习模型可以很容易地分解成一系列低秩张量近似问题。每一个问题都对应于一个利用MSIs的光谱相关特性进行的光谱降维模型,并且可以通过一些现成的高阶统计量来解决。因此,可以缓解光谱冗余问题。

N阶张量 A ∈ R I 1 × ⋯ × I n × ⋯ I N \mathcal{A}\in\mathbb{R}^{I_1\times\cdots\times I_n\times\cdots I_N} ARI1××In×IN
A \mathcal{A} A中元素 a i 1 ⋯ i n ⋯ i N , 1 ⩽ i n ⩽ I n a_{i_1\cdots i_n\cdots i_N},1\leqslant i_n\leqslant I_n ai1iniN,1inIn
n模向量 a a a改变指标 i n i_n in固定其他指标
n模向量作为列构成的矩阵 A ( n ) ∈ R I n × ( I 1 ⋯ I n − 1 I n + 1 ⋯ I N ) \mathbf{A}_{(n)}\in\mathbb{R}^{I_n\times(I_{1}\cdots I_{n-1}I_{n+1}\cdots I_{N})} A(n)RIn×(I1In1In+1IN)
A \mathcal{A} A n n n r n r_n rn A \mathcal{A} A的n模向量span的向量空间的维数
n模乘积 A × n B ( ∈ R J n × I n ) = C ∈ R I 1 × ⋯ × J n × ⋯ I N \mathcal{A}\times_n\mathbf{B}(\in\mathbb{R}^{J_n\times I_n})=\mathcal{C}\in\mathbb{R}^{ I_{1}\times\cdots\times J_{n}\times\cdots I_{N}} A×nB(RJn×In)=CRI1××Jn×IN C ( n ) = B A ( n ) \mathbf{C}_{(n)}=\mathbf{B} \mathbf{A}_{(n)} C(n)=BA(n) 见下图
c i 1 ⋯ i n − 1 j n i n + 1 ⋯ i N = ∑ i n a i 1 ⋯ i n − 1 i n i n + 1 ⋯ i N b j n i n c_{i_{1} \cdots i_{n-1} j_{n} i_{n+1} \cdots i_{N}}=\sum_{i_{n}} a_{i_{1} \cdots i_{n-1} i_{n} i_{n+1} \cdots i_{N}} b_{j_{n} i_{n}} ci1in1jnin+1iN=inai1in1inin+1iNbjnin
张量的F范数见下式

∥ A ∥ F = ( ∑ i 1 , … , i N ∣ a i 1 ⋯ i N ∣ 2 ) 1 / 2 \|\mathcal{A}\|_{F}=\left(\sum_{i_{1}, \ldots, i_{N}}\left|a_{i_{1} \cdots i_{N}}\right|^{2}\right)^{1 / 2} AF=(i1,,iNai1iN2)1/2

在这里插入图片描述

相关工作

  • 2D extended approach:NLM、K-SVD、BM3D、BM4D
  • Tensor-based approach:张量分解作为多向滤波的一个特例,可以看作是传统奇异值分解(SVD)的推广。LRTA、并行因子分析法等,然而,它们没有利用MSI的非局部相似性,其性能可能对噪声的程度和类型敏感。

LRTA:Denoising and dimensionality reduction using multilinear tools for hyperspectral images
PARAFAC:Denoising of hyperspectral images using the parafac model and statistical performance analysis

可分解的非局部MSI字典学习

From Image DL to MSI DL

对于一组图像块(按字典顺序排列为列向量) { x i } i = 1 n ⊂ R d \left\{\mathbf{x}_{i}\right\}_{i=1}^{n} \subset \mathbb{R}^{d} {xi}i=1nRd,其中 d d d为维数, n n n为图像块的个数,字典学习的目标是要计算字典 D = [ d 1 , ⋯   , d m ] ∈ R d × m \mathbf{D}=[\mathbf{d}_1,\cdots,\mathbf{d}_m]\in\mathbb{R}^{d\times m} D=[d1,,dm]Rd×m,其中 d i ( m > d ) \mathbf{d}_i(m>d) di(m>d)为atoms,系数矩阵为 Z = [ z 1 , ⋯   , z n ] ∈ R m × n \mathbf{Z}=[\mathbf{z}_1,\cdots,\mathbf{z}_n]\in\mathbb{R}^{m\times n} Z=[z1,,zn]Rm×n,由 x i \mathbf{x}_{i} xi的表示系数 z i \mathbf{z}_{i} zi组成,通过解决以下优化模型得到: min ⁡ D , z 1 , ⋯   , z n ∑ i = 1 n ∥ x i − D z i ∥  s.t.  P ( z i ) ≤ k ( 1 ) \min _{\mathbf{D}, \mathbf{z}_{1}, \cdots, \mathbf{z}_{n}} \sum_{i=1}^{n}\left\|\mathbf{x}_{i}-\mathbf{D} \mathbf{z}_{i}\right\| \quad \text { s.t. } \quad \mathcal{P}\left(\mathbf{z}_{i}\right) \leq k\quad(1) D,z1,,znmini=1nxiDzi s.t. P(zi)k(1)其中 P ( ⋅ ) \mathcal{P}(\cdot) P()为稀疏控制算子,如 l 0 l_0 l0 l 1 l_1 l1范数。

推广到MSI中来。MSI:三阶张量 H ∈ R d W × d H × d S \mathcal{H}\in \mathbb{R}^{d_W\times d_H\times d_S} HRdW×dH×dS,通过扫描所有重叠的MSI,我们可以从MSI构建一组3D全波段patches(FBP): { P i , j } 1 ⩽ i ⩽ d W − d w + 1 , 1 ⩽ j ⩽ d H − d h + 1 ⊂ R d w × d h × d S ( d w < d W , d h < d H ) \{\mathcal{P}_{i,j}\}_{1\leqslant i\leqslant d_W-d_w+1,1\leqslant j\leqslant d_H-d_h+1}\subset\mathbb{R}^{d_w\times d_h\times d_S}(d_w<d_W,d_h<d_H) {Pi,j}1idWdw+1,1jdHdh+1Rdw×dh×dS(dw<dW,dh<dH),我们将所有的FBP重构为一组三维patches { X i } i = 1 n \{\mathcal{X}_i\}_{i=1}^n {Xi}i=1n,其中 n = ( d W − d w + 1 ) ( d H − d h + 1 ) n=(d_W-d_w+1)(d_H-d_h+1) n=(dWdw+1)(dHdh+1)为patch个数。如此构造的每个FBP包含局部空间和全局光谱维度,这可以很容易地帮助我们考虑MSI背后的两个重要属性:空间patches之间的非局部相似性和所有波段之间的全局相关性。

构建MSI字典模型来计算空间和光谱字典 { D W ∈ R d w × m W , D H ∈ R d h × m H , D S ∈ R d S × m S } \{\mathbf{D}^W\in\mathbb{R}^{d_w\times m_W},\mathbf{D}^H\in\mathbb{R}^{d_h\times m_H},\mathbf{D}^S\in\mathbb{R}^{d_S\times m_S}\} {DWRdw×mW,DHRdh×mH,DSRdS×mS},其中 m W > d w , m H > d h , m S > d S m_W>d_w,m_H>d_h,m_S>d_S mW>dw,mH>dh,mS>dS,表明字典的冗余性
min ⁡ D W , D H , D S , Z i ∑ i = 1 n ∥ X i − Z i × 1 D W × 2 D H × 3 D S ∣ s.t. , P ( Z i ) ≤ k ( 2 ) \begin{array}{c} \min _{\mathbf{D}^{W}, \mathbf{D}^{H}, \mathbf{D}^{S}, \mathcal{Z}_{i}} \sum_{i=1}^{n} \| \mathcal{X}_{i}-\mathcal{Z}_{i} \times_{1} \mathbf{D}^{W} \times_{2} \mathbf{D}^{H} \times_{3} \mathbf{D}^{S} \mid \\ \text {s.t.}, \quad \mathcal{P}\left(\mathcal{Z}_{i}\right) \leq k \quad(2) \end{array} minDW,DH,DS,Zii=1nXiZi×1DW×2DH×3DSs.t.,P(Zi)k(2)

其中 Z i ∈ R m W × m H × m S \mathcal{Z}_i\in\mathbb{R}^{m_W\times m_H\times m_S} ZiRmW×mH×mS对应于 X i \mathcal{X}_i Xi的系数张量,管理字典之间的关联交互, P ( ⋅ ) \mathcal{P}(\cdot) P()为稀疏正则化项如 l 0 l_0 l0 l 1 l_1 l1算子。

From Image Group-Sparsity to MSI Group-Block-Sparsity

将相似的patches聚成一类, X k = { x i j k } j = 1 n k , k = 1 , 2 , ⋯   , K \mathbf{X}^{k}=\{\mathbf{x}_{i_j^k}\}_{j=1}^{n_k},k=1,2,\cdots,K Xk={xijk}j=1nk,k=1,2,,K K K K为类的个数, n k n_k nk表示第 k k k类中的patch的个数, i j k i_j^k ijk表示在第 k k k个类第 j j j个块中的指标,这使得每个类在字典中共享相似的atoms. 第 k k k个类 X k \mathbf{X}^{k} Xk对应的系数矩阵为 Z k = [ z i 1 k , z i 2 k , ⋯   , z i n k k ] ∈ R m × n k \mathbf{Z}^{k}=[\mathbf{z}_{i_1^k},\mathbf{z}_{i_2^k},\cdots,\mathbf{z}_{i_{n_k}^k}]\in\mathbb{R}^{m\times n_k} Zk=[zi1k,zi2k,,zinkk]Rm×nk,这个同时稀疏编码目标可以通过在每个 Z ( k ) \mathbf{Z}^{(k)} Z(k)上应用(1)和下面的组稀疏正则化来实现: ∥ Z ( k ) ∥ p , q = ∑ i = 1 m ∥ z ^ i k ∥ q p \left\|\mathbf{Z}^{(k)}\right\|_{p, q}=\sum_{i=1}^{m}\left\|\widehat{\mathbf{z}}_{i}^{k}\right\|_{q}^{p} Z(k)p,q=i=1mz ikqp

其中 z i k \mathbf{z}_{i}^{k} zik Z ( k ) \mathbf{Z}^{(k)} Z(k)的第 i i i行, ( p , q ) (p,q) (p,q)通常为 ( 1 , 2 ) (1,2) (1,2) ( 0 , ∞ ) (0,\infty) (0,). 这种组稀疏性正则化器有助于施加 Z ( k ) \mathbf{Z}^{(k)} Z(k)的一些全零行。

这种非局部方法可以很容易地推广到MSI中,首先,将相似的FBPs聚成一类 { X i j k } j = 1 n k ( k = 1 , 2 , ⋯   , K ) \{\mathcal{X}_{i_j^k}\}_{j=1}^{n_k}(k=1,2,\cdots,K) {Xijk}j=1nk(k=1,2,,K),其中 K K K为类的个数, n k n_k nk为第 k k k类中FBP的个数, i j k i_j^k ijk为第 k k k类第 j j j块的指标,我们试图强制每个类在每个空间字典 D W , D H D^W,D^H DW,DH和光谱字典 D S D^S DS中共享相似的atoms. 为了方便,我们联合第 k k k类的FBPs,形成4阶张量 X ( k ) ∈ R d w × d h × d S × n k \mathcal{X}^{(k)}\in\mathbb{R}^{d_w\times d_h\times d_S\times n_k} X(k)Rdw×dh×dS×nk,同样第 k k k个FBP类的系数张量 { Z i j k } j = 1 n k \{\mathcal{Z}_{i_j^k}\}_{j=1}^{n_k} {Zijk}j=1nk形成 Z ( k ) ∈ R m W × m H × m S × n k \mathcal{Z}^{(k)}\in\mathbb{R}^{m_W\times m_H\times m_S\times n_k} Z(k)RmW×mH×mS×nk. 然后,通过下面的Group-block-sparsity正则化可以达到非局部MSI张量DL的目的。
在这里插入图片描述
看图2就能很容易理解上面的定义,该概念已经被证实能够增强原始高阶信号的更好恢复,因为它隐含地结合了关于真实信号的有价值的先验信息,并且便于在信号表示中充分利用每个模式的字典原子。
在这里插入图片描述
那么我们可以构造如下非局部MSI DL模型:
min ⁡ D W , D H , D S , z ( k ) ∑ k = 1 K ∥ X ( k ) − Z ( k ) × 1 D W × 2 D H × 3 D S ∥ s.t. , ∥ Z ( k ) ∥ B ⪯ ( r k W , r k H , r k S ) ( 4 ) \begin{array}{c} \min _{\mathbf{D}^{W}, \mathbf{D}^{H}, \mathbf{D}^{S}, \boldsymbol{z}^{(k)}} \sum_{k=1}^{K}\left\|\mathcal{X}^{(k)}-\mathcal{Z}^{(k)} \times_{1} \mathbf{D}^{W} \times_{2} \mathbf{D}^{H} \times_{3} \mathbf{D}^{S}\right\| \\ \text {s.t.}, \quad\left\|\mathcal{Z}^{(k)}\right\|_{B} \preceq\left(r_{k}^{W}, r_{k}^{H}, r_{k}^{S}\right) \end{array} \quad(4) minDW,DH,DS,z(k)k=1KX(k)Z(k)×1DW×2DH×3DSs.t.,Z(k)B(rkW,rkH,rkS)(4)

其中 v 1 ⪯ v 2 \mathbf{v}_1 \preceq\mathbf{v}_2 v1v2表示 v 1 \mathbf{v}_1 v1每个元素小于等于 v 2 \mathbf{v}_2 v2每个元素, Z ( k ) \mathcal{Z}^{(k)} Z(k)的Group-block-sparsity保证了每个类 X ( k ) \mathcal{X}^{(k)} X(k)共享字典 D W , D H , D S D^W,D^H,D^S DW,DH,DS r k W , r k H , r k S r_{k}^{W}, r_{k}^{H}, r_{k}^{S} rkW,rkH,rkS个atoms.

问题:如何生成FBPs的类以及如何设置Group-block-sparsity阈值 r k W , r k H , r k S r_{k}^{W}, r_{k}^{H}, r_{k}^{S} rkW,rkH,rkS,对于第一个问题,使用k-means++算法获得所有FBPs的类,第二个问题下面来讨论。

Decomposable Nonlocal MSI DL Model

假设字典 D W , D H , D S D^W,D^H,D^S DW,DH,DS足够冗余,使得不同类中使用的字典原子没有重叠。也就是说,我们假设空间和光谱字典可以写成 D W = [ D 1 W , ⋯   , D K W ] , D H = [ D 1 H , ⋯   , D K H ] , D S = [ D 1 S , ⋯   , D K S ] D^W=[D_1^W,\cdots,D_K^W],D^H=[D_1^H,\cdots,D_K^H],D^S=[D_1^S,\cdots,D_K^S] DW=[D1W,,DKW],DH=[D1H,,DKH],DS=[D1S,,DKS],其中 D k W ∈ R d w × r k W , D k H ∈ R d h × r k H , D k S ∈ R d S × r k S D_k^W\in\mathbb{R}^{d_w\times r_k^W},D_k^H\in\mathbb{R}^{d_h\times r_k^H},D_k^S\in\mathbb{R}^{d_S\times r_k^S} DkWRdw×rkW,DkHRdh×rkH,DkSRdS×rkS ∑ k = 1 K r k W = m W , ∑ k = 1 K r k H = m H , ∑ k = 1 K r k S = m S \sum_{k=1}^K{r_k^W}=m_W,\sum_{k=1}^K{r_k^H}=m_H,\sum_{k=1}^K{r_k^S}=m_S k=1KrkW=mW,k=1KrkH=mH,k=1KrkS=mS,使得每一个MSI类 X ( k ) \mathcal{X}^{(k)} X(k)只与子字典 D k W , D k H , D k S D_k^W,D_k^H,D_k^S DkW,DkH,DkS有关,这一假设的合理性在于空间和光谱字典的冗余设置,即使当我们假设两个类共享字典的一个原子时,这一假设仍然成立,因为很容易在字典中复制这个原子。在这种假设下,等式(4)可以等效地重新表述为:
∥ X ( k ) − Z ( k ) × 1 D W × 2 D H × 3 D S ∥ = ∥ X ( k ) − S u b ( Z ( k ) ) × 1 D k W × 2 D k H × 3 D k S ∥ ( 5 ) \begin{array}{l} \left\|\mathcal{X}^{(k)}-\mathcal{Z}^{(k)} \times_{1} \mathbf{D}^{W} \times_{2} \mathbf{D}^{H} \times_{3} \mathbf{D}^{S}\right\| \\ =\left\|\mathcal{X}^{(k)}-S u b\left(\mathcal{Z}^{(k)}\right) \times_{1} \mathbf{D}_{k}^{W} \times_{2} \mathbf{D}_{k}^{H} \times_{3} \mathbf{D}_{k}^{S}\right\| \end{array} \quad(5) X(k)Z(k)×1DW×2DH×3DS=X(k)Sub(Z(k))×1DkW×2DkH×3DkS(5)

其中 S u b ( Z ( k ) ) ∈ r k W × r k H × r k S × n k S u b\left(\mathcal{Z}^{(k)}\right)\in r_k^W\times r_k^H\times r_k^S\times n_k Sub(Z(k))rkW×rkH×rkS×nk,原来的非局部MSI DL问题可以分解为一系列子问题:
min ⁡ D k W , D k H , D k S , Y ∥ X ( k ) − Y × 1 D k W × 2 D k H × 3 D k S ∥ ( 6 ) \min _{\mathbf{D}_{k}^{W}, \mathbf{D}_{k}^{H}, \mathbf{D}_{k}^{S}, \mathcal{Y}}\left\|\mathcal{X}^{(k)}-\mathcal{Y} \times_{1} \mathbf{D}_{k}^{W} \times_{2} \mathbf{D}_{k}^{H} \times_{3} \mathbf{D}_{k}^{S}\right\| \quad(6) DkW,DkH,DkS,YminX(k)Y×1DkW×2DkH×3DkS(6)

经过这样的转换后,原来有约束的问题(4)现在被重新表述为一系列没有约束的更小的问题。应该注意的是,每个MSI类张量 X ( k ) \mathcal{X}^{(k)} X(k)在其第三光谱模式中具有维数冗余,这是由于其重要的内在属性之一:跨谱的全局相关性(global correlation across spectrum)。这意味着 X ( k ) \mathcal{X}^{(k)} X(k)可以由低秩张量近似获得:
min ⁡ U 1 , U 2 , U 3 , U 4 , G ∥ X ( k ) − G × 1 U 1 × 2 U 2 × 3 U 3 × 4 U 4 ∥ ( 7 ) \min _{\mathbf{U}_{1}, \mathbf{U}_{2}, \mathbf{U}_{3}, \mathbf{U}_{4}, \mathcal{G}}\left\|\mathcal{X}^{(k)}-\mathcal{G} \times_{1} \mathbf{U}_{1} \times_{2} \mathbf{U}_{2} \times_{3} \mathbf{U}_{3} \times_{4} \mathbf{U}_{4}\right\| \quad(7) U1,U2,U3,U4,GminX(k)G×1U1×2U2×3U3×4U4(7)

其中 U 1 ∈ R d k W × r k W , U 2 ∈ R d k H × r k H , U 3 ∈ R d k S × r k S , U 4 ∈ R d k N × r k N \mathbf{U}_1\in\mathbb{R}^{d_k^W\times r_k^W},\mathbf{U}_2\in\mathbb{R}^{d_k^H\times r_k^H},\mathbf{U}_3\in\mathbb{R}^{d_k^S\times r_k^S},\mathbf{U}_4\in\mathbb{R}^{d_k^N\times r_k^N} U1RdkW×rkW,U2RdkH×rkH,U3RdkS×rkS,U4RdkN×rkN对应于 X ( k ) \mathcal{X}^{(k)} X(k)的四个模式的基向量,且 d k W ≥ r k W , d k H ≥ r k H , d k S ≥ r k S , d k N ≥ r k N d_k^W\geq r_k^W,d_k^H\geq r_k^H,d_k^S\geq r_k^S,d_k^N\geq r_k^N dkWrkW,dkHrkH,dkSrkS,dkNrkN. 这里 G ∈ R r k W × r k H × r k S × r k N \mathcal{G}\in\mathbb{R}^{r_k^W\times r_k^H\times r_k^S\times r_k^N} GRrkW×rkH×rkS×rkN是core tensor, r k S < d k S r_k^S<d_k^S rkS<dkS导致 X ( k ) \mathcal{X}^{(k)} X(k)的光谱模的维数降低。(7)很容易利用Tucker分解技术求得,然后令 D k W = U 1 , D k H = U 2 , D k S = U 3 , Y = G × 4 U 4 \mathbf{D}_{k}^{W}=\mathbf{U}_1,\mathbf{D}_{k}^{H}=\mathbf{U}_2,\mathbf{D}_{k}^{S}=\mathbf{U}_3,\mathcal{Y}=\mathcal{G}\times_4\mathbf{U}_4 DkW=U1,DkH=U2,DkS=U3,Y=G×4U4得到(6)的解。

L. R. Tucker. Some mathematical notes on three-mode factor analysis.

对于(7)中秩参数 r k W , r k H , r k S , r k N r_k^W,r_k^H,r_k^S,r_k^N rkW,rkH,rkS,rkN的选取,我们可以利用著名的AIC/MDL方法对每个类张量 X ( k ) \mathcal{X}^{(k)} X(k)的模 i ( i = 1 , 2 , 3 , 4 ) i(i=1,2,3,4) i(i=1,2,3,4)展平 X ( i ) ( k ) \mathbf{X}_{(i)}^{(k)} X(i)(k).

M. Wax and T. Kailath. Detection of signals by information theoretic criteria.

Decomposable Nonlocal MSI DL Algorithm

利用 Z ( k ) , D W , D H , D S \mathcal{Z}^{(k)},\mathbf{D}^W,\mathbf{D}^H,\mathbf{D}^S Z(k),DW,DH,DS来恢复所有重叠的FBP,并对结果进行平均以获得去噪的MSI。第二步使用的k-means++,第三步使用的AIC/DIC和第四步使用的Tucker因子分解均可以快速执行,保证了算法的高效性。
在这里插入图片描述

实验

补充材料

数据集:http://www1.cs.columbia.edu/CAVE/databases/multispectral
在这里插入图片描述
噪声模型:AWGN和Poisson noise,第一组实验我们用不同 s i g m a sigma sigma(高达0.3)的高斯噪声和固定 κ = 5 κ=5 κ=5的泊松噪声来扰动32个哥伦比亚MSI中的每一个。在第二种情况下,我们使用 κ κ κ从2到6,固定 σ = 0.1 σ= 0.1 σ=0.1.

在实施去噪方法之前,首先通过方差稳定变换(VST)来重构有噪声的MSI,并且在去噪之后,使用相应的逆变换来获得最终的MSI重构。

FBP宽度 d w d_w dw和高度 d h d_h dh是我们的算法中唯一需要设置的两个参数,在我们所有的实验中,我们只是简单地将它们设置为 d w = d h = 8 d_w=d_h=8 dw=dh=8.

对比方法:K-SVD,BM3D,3D-cube K-SVD,ANLM3D,BM4D,LRTA,PARAFAC.

评估指标:峰值信噪比(PSNR)、结构相似性(SSIM)、特征相似性(FSIM)、相对全局平均误差(ERGRAS)和光谱角度映射器(SAM)。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
自然场景:https://personalpages.manchester.ac.uk/staff/david.foster/Hyperspectral_images_of_natural_scenes_02

可以很容易地观察到,通过我们的方法恢复的图像适当地去除了噪声,同时精细地保留了图像下面的结构,而通过大多数其他竞争方法获得的结果与原始图像相比包含明显的模糊区域。在这些方法中,ANLM3D和LRTA在结构保持方面表现较好。然而,由它们恢复的图像仍然比由我们的方法获得的图像有更多意想不到的尖锐噪声。
在这里插入图片描述

源代码

地址:http://gr.xjtu.edu.cn/c/document_library/get_file?folderId=1766524&name=DLFE-38410.zip
除了有张量字典学习的代码,还有KSVD、NLM、BM3D、BM4D、LRTA、PARAFAC等代码,以及PSNR、SSIM、FSIM、ERGAS、SAM代码。

Usage:

For MSI with Gaussian noise, you can simply use the function TensorDL as follows:
    [ clean_img, basis, idx, cores, info ] = TensorDL( noisy_img, params )
Please type 'help TensorDL' to get more information.

For MSI with Poisson noise or mixed Gaussian and Poisson noise, you can follow these steps:
  1. Apply VST via function GenAnscombe_forward with estimated Gaussian STD \sigma.
     After VST, the STD of noise \sigma_VST is 1.
  2. Re-arrange the MSI into [0, 1]. Remember to scale \sigma_VST as well. 
  3. Apply TensorDL as in the Gaussian noise case.
  4. Reverse the operation in step 2 to re-arrange the filtered MSI.
  5. Apply inverse VST by function GenAnscombe_inverse_exact_unbiased (or alternatives provided
     by toolbox invsansc) to get the final result.
You may find example codes in file tdl_demo\Comparison.m

Also, you can use the demo to see some comparison. You can:
  1. Type 'TDLdemo' to see the pre-computed results.
  2. Type 'Comparison' to run various methods (NOTE: this may take a while, since some of the selected
     methods are time-consuming).
  3. Use 'help Comparison' for more information.
  4. Change test MSI by simply modifying variable 'filename' in Comparison.m (NOTE: make sure your MSI
     meets the format requirements).
  5. Change noise level by modifying variables 'kappa' and 'sigma_ratio' in Comparison.m
  6. Select competing methods by turn on/off the enable-bits in Comparison.m
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值