1、神经网络解码器具有单次解码和并行计算的能力
2、MLP、CNN、LSTM三者中LSTM具有最佳的解码性能,但以最大的计算开销为代价
3、此外,我们发现每种类型的神经网络都存在一个饱和长度,这是由于它们的学习能力受到限制而引起的。
4、结构化代码比随机代码更好训练,并解决了基于深度学习的解码器难以训练长代码的挑战。因此,提出将极坐标编码图划分为子块,每个子码字的解码器分别进行训练。
5、具体的流程就是先随机生成基带数据X,利用极码编码器对X进行编码,最后得到Y,训练的时候神经网络的输入是X,X尖尖,Y。通过神经网络来学习X尖尖与X的特征。训练好了之后的测试阶段就只需要将得到的X尖尖与原始的X算个误码率就可以了。
当然,其中还涉及到了信噪比这些,就是训练的时候用不同的信噪比去训练,测试的时候选者训练时候最好效果的SNR来测试。
6、本实验由两部分组成,无噪声部分和有噪声部分(当然无噪声部分就不用来考虑信噪比了。)
7、实验我们用来判断神经网络解码性能好坏的一个用作对比的数据就是MAP(最大似然估计)
8、K=4 无噪声
随着训练次数的增加,BER逐渐减小,最终达到一个稳定值,代表了深度神经网络的收敛性。对于所有三个深层神经网络,可以观察到较低的p会导致较高的BER,只有当p = 100%时BER才会降至0,这表明神经