深度学习方法设计评估十问(实验前后问问自己)

文章详细阐述了数据集准备的步骤,包括理解公开数据集的属性和自建数据集的标准,以及方法设计中应考虑的最新最优方法对比和实验有效性验证。此外,还强调了实验记录的重要性,如超参数选择、训练细节、结果分析和失败原因排查。
摘要由CSDN通过智能技术生成

一、数据集准备

(1)如果使用一个公开的Benchmark,要先阅读该数据集的原始描述和相关论文,清晰其数据格式、划分方式、构成,如下问题:

  1. 该数据集是如何划分的?训练集、验证集、测试集的比例是多少?
  2. 该数据集中影像/视频/内容的数量、分辨率、幅面范围、时间范围是什么?在现有方法进行实验的时候是否需要裁剪影像?裁剪方式和设置具体怎样(窗口size、gap等)?
  3. 该数据集常用的评估指标是什么?在做实验之前最好要先完成指标评估的代码。

(2)如果使用自己收集的数据集,则需要注意:

  1. 目前相同领域中类似的数据集是如何划分的?自己的数据集最好保持一致;
  2. 交代清楚自己数据集的各项具体参数,以及实验时对原始数据如何进行处理。

二、方法设计

  1. 目前相同领域中有哪些SOTA方法?它们具体研究的是该任务场景中哪些问题?
  2. 我的方法要解决的是什么问题?和我解决同一问题的SOTA方法我是否需要全部拿来进行对比?
  3. 为了验证我的方法是有效的,在与其他SOTA方法进行对比时,现有的评价指标是否能充分说明自己方法的有效性?(如果你的方法侧重推理速度,那么FPS等指标是有必要的;如果你的方法侧重轻量级和低计算量,那么模型大小、FLOPS等指标是有必要的)
  4. 我的消融实验设计是否充分合理?能否在公平的前提下证明我提出方法的各个模块的有效性?
  5. 我的方法出发点是否合理?现有方法中与我最相似的方法是什么?
  6. 我的方法能否拓展到其他数据集/场景/任务中去?

三、实验记录

  1. 超参数(关键实验变量)
    • 训练超参数(train.py):优化器的选择及其超参数(train.py)、batch_size、epoch_num
    • 数据集的选择及其处理(dataset.py)
    • 超参数的搜索/遍历方案(实验分组)。可以使用nni等auto-ml工具。
    • 实验数据
      • 需要记录的实验数据
      • 需要关注的指标
      • 数据的输出路径
    • 实验环境
  2. 实验结果(what?)
  3. 各个分组的结果展示
    • 记录数据(优化曲线
    • 计算关键指标(最终test acc等)
    • 记录数据的保存路径
  4. summary 阶段性总结(why?分析结果、总结)
    从模型设计、实验设计、结果等方面进行归纳与总结,得出阶段性研究结论。
  5. summary 阶段性总结(why?分析结果、总结)
    从模型设计、实验设计、结果等方面进行归纳与总结,得出阶段性研究结论。
  6. 结果分析:组间对比、与预期结果进行对比。
  7. 总结:
    • 成功or失败?失败与异常结果的可能原因。通过查阅文献,回顾实验过程等,从模型设计、代码实现等分析:失败或异常的原因;提出新的可能和假设。
    • 值得关注的性质(在原本实验目的之外的)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值