Lattice原理及在通信中的应用 5 Applications -- AWGN Channel Coding

这一节我们主要讲一下Lattice在通信中的应用。

首先这篇paper来自 Uri Erez & Ram Zamir 2004年的经典论文 “Achieving 1 2 log ⁡ ( 1 + SNR ) \frac{1}{2}\log (1+ \text{SNR}) 21log(1+SNR) on the AWGN channel with lattice encoding and decoding”. 本文证明了使用 lattice code可以achieve Gaussian 信道的 capacity.

考虑使用 n 次高斯信道传输 message。 我们用 n维 lattice 作为码字,即在 n n n 次使用信道的过程中传输一个 n 维 lattice point x ∈ Λ \bm{x}\in\Lambda xΛ. 注意 x \bm{x} x 有功率限制
1 n E [ ∥ x ∥ 2 ] ≤ P \frac{1}{n}E[\|\bm{x}\|^2]\leq P n1E[x2]P

即所有使用的码字的平均功率要低于 P P P.

接收信号可以为
y = x + z \bm{y=x+z} y=x+z

其中每次使用信道 z [ i ] ∼ N ( 0 , N ) z[i]\sim\mathcal{N}(0,N) z[i]N(0,N). 此 AWGN 信道的 capacity 为
C AWGN = 1 2 log ⁡ ( 1 + P N ) C_\text{AWGN}=\frac{1}{2}\log\left(1+\frac{P}{N}\right) CAWGN=21log(1+NP)

一个long-lasting problem is,如果用 lattice code 能否 achieve capacity. 本文证明,可以。

Intuition: 考虑一次传输 y = x + z y=x+z y=x+z, 假设 x ∼ N ( 0 , P ) x\sim\mathcal{N}(0,P) xN(0,P), z ∼ N ( 0 , N ) z\sim\mathcal{N}(0,N) zN(0,N) 那我们应该怎么estimate x x x 尼?

注意 x x x 是一个实数,因此在没有任何先验信息的情况,我们唯一能做的就是把 y y y 当做 x x x,
x ^ = y \hat{x}=y x^=y

注意这是一个无偏估计,即 E ( x ^ ) = E ( x ) \mathbb{E}(\hat{x})=\mathbb{E}({x}) E(x^)=E(x), 估计的性能
MSE = E [ ( x ^ − x ) 2 ] = E [ z 2 ] = N \text{MSE}=\mathbb{E}[(\hat{x}-x)^2]=\mathbb{E}[z^2]=N MSE=E[(x^x)2]=E[z2]=N

另一方面,如果我们有先验信息,即 x x x 的分布 N ( 0 , P ) \mathcal{N}(0,P) N(0,P),我们进一步降低 MSE: 构造有偏估计
x ^ = α Y \hat{x}=\alpha Y x^=αY

更准确的说,in general 它是有偏的,如果 x x x mean 为0那它是无偏. 此时 MSE
MSE = E [ ( x ^ − x ) 2 ] = E [ ( α x + α z − x ) 2 ] = ( 1 − α ) 2 P + α 2 N \text{MSE}=\mathbb{E}[(\hat{x}-x)^2]=\mathbb{E}[(\alpha x+\alpha z-x)^2]=(1-\alpha)^2P+\alpha^2N MSE=E[(x^x)2]=E[(αx+αzx)2]=(1α)2P+α2N

它的最小值取在
α = P P + N ,    MSE ∗ = P N P + N \alpha=\frac{P}{P+N},~~\text{MSE}^*=\frac{PN}{P+N} α=P+NP,  MSE=P+NPN

换句话说,如果我们知道 x x x 的分布,那就可以算出最优的 α \alpha α. 那么这个有偏估计到底有多好尼,令 P = 1 P=1 P=1, 之前的 MSE 就是噪声的功率 N N N, 而这里
MSE ∗ = N 1 + N = 1 − 1 1 + N < 1 \text{MSE}^*=\frac{N}{1+N}=1-\frac{1}{1+N}<1 MSE=1+NN=11+N1<1

随着 N ∈ ( 0 , ∞ ) N\in(0,\infty) N(0,), MSE ∗ ∈ ( 0 , 1 ) \text{MSE}^*\in(0,1) MSE(0,1) 而且永远在 M S E = N MSE=N MSE=N 之下, N N N 越大,差距越大,所以这个 gap can be huge! 特别是在低信噪比下。

Lesson learned: 知道 prior information (sample variance of x \bm{x} x) 大有裨益。特别是在低信噪比下提升巨大。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 平面格变换器(Flat Lattice Transformer)是一种用于自然语言处理的神经网络模型,它是基于Transformer模型的改进版本。与传统的Transformer模型不同,平面格变换器使用平面格结构来表示输入和输出序列,这种结构可以更好地捕捉序列的局部依赖关系。平面格变换器在机器翻译、文本分类、问答系统等任务取得了很好的效果。 ### 回答2: Flat-lattice-transformer 是一种新型的序列建模技术,它是基于已有的transformer模型而进行改良升级所得到的。Flat-lattice-transformer在序列任务具有极强的建模能力,在各种语言模型、机器翻译、文本分类等自然语言处理任务表现优异。 Flat-lattice-transformer的主要思想是将传统的句子表示构建转换成一种扁平化的结构,从而解决了原来transformer模型无法处理较长句子的问题。Flat-lattice-transformer将输入序列转换成一个图,将每个单词作为结点,并根据它们之间的依赖关系建立边,得到一个扁平的表示。这样做的好处是可以在不损失重要信息的前提下,缩小模型的空间复杂度,使其能够处理更长的序列。 构建这样一个扁平的图结构需要进行一系列的预处理和转换,其最重要的是将输入的序列转换成一个有限状态自动机(Finite State Machine,FSM),然后将该自动状态转换成一个有向图。在构建图结构之后,Flat-lattice-transformer还会对其进行一定的拓扑排序和优化,以便在后续处理更加高效地搜索图的信息。 最终的输出是一个矩阵,其每个元素代表了一个状态下输出的结果概率,然后根据这个矩阵来计算输入序列的概率。 Flat-lattice-transformer在一些自然语言处理任务已经取得了优异的成果,而且其对于长句建模和处理的能力更为突出,成为了自然语言处理领域一个备受关注的技术。 ### 回答3: Flat-lattice-transformer是指一种基于transformer模型的语音识别系统。它是由研究人员提出的一种新型语音识别架构,用于解决传统语音识别系统困扰人们已久的问题。 传统的语音识别系统通常采用深度神经网络(DNN)或循环神经网络(RNN)进行声学建模。这些模型通常使用帧级别的信息来预测每个音素的输出结果。然而,由于音素之间存在连续性和上下文依赖性,这种方法往往会导致误识别率较高。 Flat-lattice-transformer采用transformer作为声学建模器,从而利用transformer的自注意力机制学习多级别上下文信息,并能够直接预测音素序列,而无需使用基于帧的分类器。另外,该模型引入统一的flat lattice生成机制,将声学特征和语言学知识进行融合,使得模型具备更好的能力来解决上下文依赖性和连续性的问题,从而实现了更高的识别精度。 Flat-lattice-transformer还具有许多其他优点。例如,与传统的基于标注的端到端语音识别系统相比,它不需要任何语言标注信息,因此可以避免标注数据的稀缺性和昂贵的标注成本。此外,该系统还可以在训练数据较少的情况下实现较高的识别性能,这为许多实际应用提供了便利和可能性。 总的来说,Flat-lattice-transformer是一种比传统语音识别系统更优秀的语音识别架构。它的出现为语音识别领域带来了新的思路和技术,同时也为我们提供了更多解决语音识别问题的可能性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值