论文读不懂可以联系上下文猜测,有自己的思考
1.标题简写(模板)
《论文题目》
🚀背景介绍
⭐️提出方法
💻 实验结果
1.PADC
《Predictive and Adaptive Deep Coding for Wireless Image Transmission in Semantic Communication》
🚀背景介绍
已有的基于DeepJSCC的语义通信系统框架不能根据不同的信道信噪比环境和图像内容自适应码率(adaptive code rates)
信源编码:JPEG(Joint Photographic Experts Group,基于离散余弦变换DCT)、BPG(Better Portable Graphics,基于离散余弦变换DCT)、JPEG2000(基于离散小波变换DWT)。
信道编码:低密度奇偶校验码(Low Density Parity Check Code,LDPC) ,极化码(Polar code),Turbo code
⭐️提出方法
- DeepJSCC-V
ADJSCC适用于SNR自适应,DeepJSCC-V利用SC mask解决CR自适应.
z o = E ϕ ( x , γ ) z^{o}=E_{\phi}({\bf x},\gamma) zo=Eϕ(x,γ) 为语义编码SC输出;
💻实验结果
2.ADJSCC
《Wireless Image Transmission Using Deep Source Channel Coding With Attention Modules》
🚀背景介绍
已有的基于DeepJSCC的语义通信系统模型在特定的SNR下训练,部署阶段的SNR可能与之不同,如果训练很多模型覆盖不同的SNR,那么计算效率低且占用存储。
⭐️提出方法
提出了一种基于注意力ADJSCC方法,该方法可以在不同信噪比水平的传输过程(部署)中成功运行。本设计的灵感来源于传统JSCC中的资源分配策略,即根据信道信噪比动态调整信源编码中的压缩比和信道编码率。这是通过求助于注意力机制来实现的,因为这些机制能够将计算资源分配给更关键的任务。
与传统JSCC的资源分配策略不同,ADJSCC根据信噪比条件,采用通道级软注意力(channel-wise soft attention)的方式对特征进行缩放。
主要包含两个模块:feature learning (FL) module and an attention feature (AF) module
- AF module
- 概述
Hard attention mechanism vs. Soft attention mechanism :Hard不能反向传播(backpropagation)
原文中对于channel-wise soft attention的说明令人费解😕,原文如下:
The extracted features can be regarded as the signal components on the convolution kernel. The channel relationship are captured and different scaling parameters are generated for different channel features to increase or suppress their connection strength to the next layer.
AF模块即基于 channel-wise soft attention
F G = [ F 1 G , F 2 G , ⋅ ⋅ ⋅ , F c G ] ∈ R h × w × c {F}^{G}=\;\left[F_{1}^{G},F_{2}^{G},\cdot\cdot\cdot,F_{c}^{G}\right]\;\in\;\mathbb{R}^{h\times w\times c} FG=[F1G,F2G
- 概述