前言:
在LDPC,Polar 都会涉及到 SISO Decoder.
后面四章节主要讲这块的推导过程。
SISO: Soft Input and Soft Output
soft 思想很像机器学习中softmax 激活函数,主要作用是把概率约束到[0,1]之间。
本篇主要以SPC(3,2)为例
目录:
1: SPC introduce
2: SISO decoder for SPC(3,2)
3: properties
4: 补充知识点
一 SPC(signle parity check code)
首先回顾一下SPC码
图中的: beliefs that
is 0, 即预测值为0的概率
后面我们以下面两个表示码字为0和1的概率
SPC 形式(n,n-1)
输入长度为n-1的信息,输出长度为n的码字,即增加了一个奇偶校验位
1.1 编码矩阵:
1.2 奇偶校验矩阵
H 是全为1的行向量
1.3 例 SPC(3,2)
编码矩阵G
二 SISO decoder for SPC(3,2)
这里面以为例:
一部分信息来自于chanel 本身 ,称为intrinsic
另一部分信息来自于其它channel ,称为extrinsic
2.1 先看 instrinsic:
概率比取对数 即:
2.2 extrinsic
给定,
为多少?(条件概率)
通过上图可以看到
因为:
所以
根据前面的LLR定义 ,以及tanh的性质
,
上面等价于
三 properties
在前面LDPC,Polar 中我们知道
3.1 求extrsinc正负号
tanh 有个重要特性
所以
3.2 求extrsinc大小
我们先对上面求log
(因为logtanh|x|肯定小于0,所以|a+b|=|a|+|b|)
设
则
,具体证明可以参考补充章节
3.3 repetion
就是两个概率相加,一个是来于channel 本身,一个来自其它信道的信息
3.4 简化求解法
这个也是最常用的,其它也是一样的求解法,在LDPC里面就用的这种
四 补充章节
首先可以
4.1
证明:
(等式右边肯定小于0)
其中
它的符号右前门的sgn 函数获得
4.2 tanh(x)
所以:
4.3 logx 图像
4.4 tanh 图像
4.4 回顾一下polar ,用的是min sum,是一样的,前面的tanh 计算量大。