这一节我们主要讲一下Lattice在通信中的应用。
首先这篇paper来自 Uri Erez & Ram Zamir 2004年的经典论文 “Achieving 1 2 log ( 1 + SNR ) \frac{1}{2}\log (1+ \text{SNR}) 21log(1+SNR) on the AWGN channel with lattice encoding and decoding”. 本文证明了使用 lattice code可以achieve Gaussian 信道的 capacity.
考虑使用 n 次高斯信道传输 message。 我们用 n维 lattice 作为码字,即在
n
n
n 次使用信道的过程中传输一个 n 维 lattice point
x
∈
Λ
\bm{x}\in\Lambda
x∈Λ. 注意
x
\bm{x}
x 有功率限制
1
n
E
[
∥
x
∥
2
]
≤
P
\frac{1}{n}E[\|\bm{x}\|^2]\leq P
n1E[∥x∥2]≤P
即所有使用的码字的平均功率要低于 P P P.
接收信号可以为
y
=
x
+
z
\bm{y=x+z}
y=x+z
其中每次使用信道
z
[
i
]
∼
N
(
0
,
N
)
z[i]\sim\mathcal{N}(0,N)
z[i]∼N(0,N). 此 AWGN 信道的 capacity 为
C
AWGN
=
1
2
log
(
1
+
P
N
)
C_\text{AWGN}=\frac{1}{2}\log\left(1+\frac{P}{N}\right)
CAWGN=21log(1+NP)
一个long-lasting problem is,如果用 lattice code 能否 achieve capacity. 本文证明,可以。
Intuition: 考虑一次传输 y = x + z y=x+z y=x+z, 假设 x ∼ N ( 0 , P ) x\sim\mathcal{N}(0,P) x∼N(0,P), z ∼ N ( 0 , N ) z\sim\mathcal{N}(0,N) z∼N(0,N) 那我们应该怎么estimate x x x 尼?
注意
x
x
x 是一个实数,因此在没有任何先验信息的情况,我们唯一能做的就是把
y
y
y 当做
x
x
x,
x
^
=
y
\hat{x}=y
x^=y
注意这是一个无偏估计,即
E
(
x
^
)
=
E
(
x
)
\mathbb{E}(\hat{x})=\mathbb{E}({x})
E(x^)=E(x), 估计的性能
MSE
=
E
[
(
x
^
−
x
)
2
]
=
E
[
z
2
]
=
N
\text{MSE}=\mathbb{E}[(\hat{x}-x)^2]=\mathbb{E}[z^2]=N
MSE=E[(x^−x)2]=E[z2]=N
另一方面,如果我们有先验信息,即
x
x
x 的分布
N
(
0
,
P
)
\mathcal{N}(0,P)
N(0,P),我们进一步降低 MSE: 构造有偏估计
x
^
=
α
Y
\hat{x}=\alpha Y
x^=αY
更准确的说,in general 它是有偏的,如果
x
x
x mean 为0那它是无偏. 此时 MSE
MSE
=
E
[
(
x
^
−
x
)
2
]
=
E
[
(
α
x
+
α
z
−
x
)
2
]
=
(
1
−
α
)
2
P
+
α
2
N
\text{MSE}=\mathbb{E}[(\hat{x}-x)^2]=\mathbb{E}[(\alpha x+\alpha z-x)^2]=(1-\alpha)^2P+\alpha^2N
MSE=E[(x^−x)2]=E[(αx+αz−x)2]=(1−α)2P+α2N
它的最小值取在
α
=
P
P
+
N
,
MSE
∗
=
P
N
P
+
N
\alpha=\frac{P}{P+N},~~\text{MSE}^*=\frac{PN}{P+N}
α=P+NP, MSE∗=P+NPN
换句话说,如果我们知道
x
x
x 的分布,那就可以算出最优的
α
\alpha
α. 那么这个有偏估计到底有多好尼,令
P
=
1
P=1
P=1, 之前的 MSE 就是噪声的功率
N
N
N, 而这里
MSE
∗
=
N
1
+
N
=
1
−
1
1
+
N
<
1
\text{MSE}^*=\frac{N}{1+N}=1-\frac{1}{1+N}<1
MSE∗=1+NN=1−1+N1<1
随着 N ∈ ( 0 , ∞ ) N\in(0,\infty) N∈(0,∞), MSE ∗ ∈ ( 0 , 1 ) \text{MSE}^*\in(0,1) MSE∗∈(0,1) 而且永远在 M S E = N MSE=N MSE=N 之下, N N N 越大,差距越大,所以这个 gap can be huge! 特别是在低信噪比下。
Lesson learned: 知道 prior information (sample variance of x \bm{x} x) 大有裨益。特别是在低信噪比下提升巨大。