CVPR 2023 精选论文学习笔记: Minimizing the Accumulated Trajectory Error to Improve Dataset Distillation

本文提出了一种名为MATE的数据集凝缩方法,通过最小化神经网络训练轨迹上的累积误差,提高蒸馏模型在图像分类任务上的泛化性能。该方法在CIFAR-10、CIFAR-100和ImageNet等任务上取得显著效果,理论基础基于损失景观分析,实际应用中采用课程学习策略。
摘要由CSDN通过智能技术生成

我们首先给出关于蒸馏方法的四种分类标准:

标准 1:数据集蒸馏方法类型

  • 知识蒸馏:这种方法涉及将知识从大型复杂模型传输到较小、更简单的模型。这是通过训练较小模型来模仿较大模型的预测来实现的。知识蒸馏可以通过多种方式进行,例如使用软目标、特征匹配或熵最小化。
  • 数据集凝缩:这种方法涉及从大型数据集中选择较小的数据子集,同时保留其基本特征。这可以通过多种方式进行,例如使用聚类算法、
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

结构化文摘

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值