神经网络压缩(7)Soft weight-sharing for neural network compression

本文探讨了软权重共享在神经网络压缩中的应用,该方法同时实现量化和剪枝,通过简单的再训练过程。它与最小描述长度原则和变分贝叶斯推断相关,用于降低网络复杂性和防止过拟合。方法部分介绍了优化目标函数,包括错误成本和复杂度成本,并使用高斯混合分布来聚集权重。实验展示了权重分布和高斯中心的演变,证明了该方法的有效性。
摘要由CSDN通过智能技术生成

Soft weight-sharing for neural network compression

Abstract

  1. soft weight-sharing
  2. achieves both quantization and pruning in one simple (re-)training procedure
  3. the relation between compression and the minimum description length (MDL) principle

Intro

  1. compression直接相关:(variational) Bayesian inference and
    the minimum description principle
  2. Hinton1992,soft weight sharing 这个是作为一种正则化的方法用于降低网络的复杂性,防止过拟合
  3. 他主要的构想也是quant的思想,文章中提到,对比韩松的方法,需要一步一步的进行prune和quant然后在retrain,这篇文章引入soft weight sharing的方法说可以在retain的过程中一起实现prune和quant;

Method

  • 需要优化的目标函数:
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值