Yan_Joy的博客

真正博客: http://yanjoy.win/

Distiller:正则化

Regularization 正则化 在Deep Learning1书中,是这么定义正则化的: “any modification we make to a learning algorithm that is intended to reduce its generalization er...

2019-01-08 16:25:57

阅读数:50

评论数:0

Distiller:量化算法

Quantization Algorithms 量化算法 注意: 对于任何需要量化感知训练的以下方法,请参阅这里,了解如何使用Distiller的机制调用它。 基于范围的线性量化(Range-Based Linear Quantization) 让我们在此分解使用的术语: 线性(Linear...

2019-01-08 15:26:30

阅读数:28

评论数:0

Distiller:神经网络压缩研究框架

Distiller是由Intel AI Lab维护的基于PyTorch的开源神经网络压缩框架。主要包括: 用于集成剪枝(pruning),正则化(regularization)和量化(quantization )算法的框架。 一套用于分析和评估压缩性能的工具。 现有技术压缩算法的示例实现。 这...

2019-01-07 17:38:11

阅读数:30

评论数:0

PyTorch 0.4 升级指南

4月25日,PyTorch团队正式发布了0.4.0的release版本。这是在与caffe2合并后的首个稳定版本。其中核心的变化有: Tensor/Variable合并 零维张量(标量) volatile标志的弃用 dtypes,devices和Numpy型Tensor的创建函数 写设备无关的代码...

2018-04-26 17:08:00

阅读数:1295

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭