关于“智简无线网络”的名词解释


智简网络

  • 智简无线网络(智慧内生,原生简约),是指网络自身蕴含“智能简约”要素,网络中的节点将成为具备智能的新型节点,而网络本身的协议结构将趋向于极简,通过原生智能、认知重塑等特性支撑网络,围绕不同通信对象构建有针对性的智能服务生态,形成“网络极简、节点极智” ,最终达到网络“由智生简、以简促智”的自演进、自优化、自平衡的状态

语义通信

语义通信是智简通信的实现方式之一
见博客: 关于“语义通信”的名词解释


智简通信协议架构

  • 智简物理层:除了完成传统比特信息的传递以外,还将实现语义提取恢复与语义编解码,结合信源信道联合编码完成智简物理层功能
  • 智简链路层:主要负责实现智简模型流量控制与更新
  • 智简网络层:主要负责动态规划智简模型传播路由,根据一定的协议将智简模型按照传输路径进行传播
  • 智简传输层:负责实现端到端的可靠语义通信,保证语义通信与智简模型的正确传输
  • 智简应用层:负责实现智简用户的功能,包括基于模型向用户提供相应的智简服务,以满足用户的应用需求。

在这里插入图片描述


模型差分传输技术

  • 模型差分传输技术,即对于需要传输的模型切片,智简网络中各个传输结点实际只需要传输所需模型与本地节点所持有模型的差值部分,形成模型残差传播,不仅降低了信宿结点获取所需模型切片的时延,同时也减少了端到端通信过程中的数据冗余,提高了整体网络的资源利用率。

知识蒸馏技术

  • 知识蒸馏技术通过Teacher-Student模型将复杂模型简化为小模型,实现模型压缩
    参考文献:《Distilling the knowledge in a neural network,2015》
    该知识点从《Multipath Routing Scheme for AI Model Slices Transmission in Intelligent Networks》看到
  • 知识蒸馏目标是在不显着降低网络性能的情况下,将大型复杂集成模型学到的知识转移到较小的模型中。它首先在 [1] 中进行了研究。在[2]中,引入了temperature 的概念来生成用于训练较小模型的软目标。
    参考文献:
    [1] Model compression
    [2]Distilling the knowledge in a neural network
    该知识点从《A Lite Distributed Semantic Communication System for Internet of Things》看到

模型量化技术

  • 模型量化技术通过压缩参数个数模型深度来减少模型参数
    参考文献:
    《Aggregated Residual Transformations for Deep Neural Networks,2015》
    《Data-free parameter pruning for deep neural networks,2015》
    《Pruning convolutional neural networks for resource efficient inference,2016》
    该知识点从《Multipath Routing Scheme for AI Model Slices Transmission in Intelligent Networks》看到

    Parameters pruning and quantization是 DL 模型压缩的两种主要方法:
    ①Parameter pruning是去除两个神经元或重要神经元之间不必要的连接
    ②Parameters quantization旨在以较低的精度(较少的位)表示权重参数,从而减少流经神经网络模型的数据所需的位宽,以缩小模型大小以节省内存并简化计算加速的操作
    该知识点从《A Lite Distributed Semantic Communication System for Internet of Things》看到

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值