用于语义和目标导向压缩的机器学习技术-笔记

摘要

取自Beyond Transmitting Bits: Context, Semantics, and Task-Oriented Communications,主要是阅读其第四章的笔记

介绍

  • 语义压缩semantic compression的特点:提取与接收器要执行的任务最相关的语义信息,减少带宽消耗和传输延迟
  • 现实落地的问题:统计信息不可知
  • 解决方案:机器学习工具训练模型,以促进语义信息提取,而无需数学模型

接下来,分两个方向介绍语义通信研究:训练和预测

远程模型训练(?联邦学习)

模型压缩

联邦学习

DNN模型压缩 model compression:神经网络大部分参数是多余的,可以消除没有帮助的参数。

方法有:

  1. 高级剪枝,例如second-order derivative the Hessian
  2. 直接使用训练期间施加的稀疏性约束来训练网络(?类似于预剪枝)
  3. vector quantization 网络权重量化。对于典型的网络,大约 90% 的存储被密集连接层占用,而超过 90% 的运行时间被卷积层占用,那减少通信开销,主要对全连接层“动刀”。
  4. knowledge transfer 把大型复杂集成模型学到的知识迁移到较小的模型中
  5. 模型架构优化

 分布式情况

CEO问题:如何最有效地估计一个不可观察的随机变量,这个变量被多个具有噪声的观察者所观察。

依据是否中心化分为:

  • federated learning (用随机梯度下降迭代) 
    • fedavg算法:分布式有损问题,迭代的目标是计算模型更新的平均值,是一种语义通信
  • fully distributed, or peer-to-peer learning

多终端函数计算问题

计算和通信的不同角色

一般的P2P:将这些随机变量传送到节点,然后节点计算函数值,这样一般最优

多终端函数计算问题的最优性能不得而知,目前的优化方式收益微小

远程推理

various lossy compression problems can be considered in the context of semantic communication under the appropriate reconstruction metric

在适当的重构度量条件下,各种有损压缩问题都可以在语义通信的背景下加以考虑

DNN对比别的ML算法在压缩上的优势:可以针对接收方需要的任何重建度量来训练

视频压缩中,用region-of-interest,等一系列针对特定检测任务的视频压缩算法

split learning:将DNN分为两部分,一部分在编码器执行,主要是特征提取,另一部分在接收器执行,过程中可以对特征向量量化/压缩(无监督学习,自编码器)

边缘图像检索问题:一方面,要减少传输的数据量(带宽有限),一方面,数据库仅在原创可用,因此需要压缩降低通信速率。可能用更多数据来面部图像压缩

研究表明,无法同时最小化重建信号的分类误差率、失真和感知度量。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。
知识蒸馏是一种将一个复杂模型中的知识传递给一个简化模型的方法,以提高简化模型的性能。在语义分割中,我们可以使用知识蒸馏来压缩一个复杂模型,如DeepLabv3+,以获得一个更轻量级的模型。 以下是使用知识蒸馏压缩语义分割模型的步骤: 1. 训练一个复杂模型:首先,我们需要训练一个复杂模型,如DeepLabv3+,以获得高精度的语义分割结果。 2. 选择一个轻量级模型:选择一个轻量级模型作为我们要压缩目标模型。例如,我们可以选择一个只有几个卷积层的简单模型。 3. 准备训练数据:我们需要准备用于训练目标模型的数据集。这个数据集应该与我们用于训练复杂模型的数据集相同。 4. 使用复杂模型生成标签:使用复杂模型对训练数据集中的图像进行推理,并生成每个像素的语义分割标签。 5. 使用标签训练目标模型:使用复杂模型生成的标签对目标模型进行训练。在训练过程中,我们可以使用知识蒸馏技术将复杂模型的知识传递给目标模型。 6. 评估目标模型:最后,我们需要评估目标模型的性能。我们可以使用与复杂模型相同的评估指标,如交并比和像素准确率,来比较目标模型和复杂模型的性能。 总之,使用知识蒸馏压缩语义分割模型需要训练一个复杂模型,选择一个轻量级模型作为目标模型,并使用知识蒸馏技术将复杂模型的知识传递给目标模型。这种方法可以帮助我们获得更轻量级的模型,同时保持高精度的语义分割结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值