- 博客(4)
- 收藏
- 关注
原创 Semi-Supervised Active Learning with Temporal Output Discrepancy 代码笔记
源码地址:https://github.com/siyuhuang/TODmain_TOD.py主函数if __name__ == '__main__': # 输入模型参数: 数据集、采样方式、附加损失项 # 定义数据增强方式以及训练集、未标注数据集、测试集 # 加载数据集 # 以上部分代码省略 仅分析主动学习部分 for trial in range(TRIALS): global iters iters = 0
2021-11-29 10:26:43
814
1
原创 Semi-Supervised Active Learning with Temporal Output Discrepancy 阅读笔记
摘要尽管深度学习能够胜任一系列任务,它仍然高度依赖于大量的已标注数据,而获取已标注数据是昂贵且耗时的。为了降低数据标注的开销,可以通过主动学习交互式地请求oracle对未标注数据集的一小部分有信息含量的样本进行标注。受到“具有更高损失的样本通常对模型更有价值”这一事实的启发,作者在本文中提出了一种新的深度主动学习方法,当未标注样本被认为会产生高损失时,请求oracle进行标注。该方法的核心是一个评价指标Temporal Output Discrepancy (TOD)...
2021-11-26 21:44:29
2689
原创 Consistency-based Semi-supervised Active Learning: Towards Minimizing Labeling Cost 阅读笔记
详细内容见论文原文《Consistency-based Semi-supervised ActiveLearning: Towards Minimizing Labeling Cost》摘要主动学习将数据标注和模型训练结合,通过优先选择能够最好提升模型性能的高价值数据,最小化标注成本。在基于池的主动学习中,大多数传统的方法在模型的训练阶段不使用未标注数据。在本文中,作者提出统一样本选择和模型训练过程,以最小化标注成本,并为此做出两大贡献。第一,作者通过半监督学习,使用已标注数据和未标注数据,在训练阶段
2021-11-25 15:57:03
2517
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人