CV
文章平均质量分 80
LUQC638
这个作者很懒,什么都没留下…
展开
-
Theoretical Analysis of Self-Training with Deep Networks on Unlabeled Data 解读
novelties:统一的理论分析,结合了半监督学习,无监督领域的改编,无监督的学习。作者的分析基于一定的假设:expansion:一个小的数据集会扩展成一个彼此之间大概率相关的集群,同一类的样本之间有比较好的连续性。Separation: 不同的类别的样本邻居之间的重叠最小。作者证明在这两个假设之下,自训练和输入一致性正则会达到比较高的预测准确度,也即作者提出了一个目标函数,会进行输入一致性的正则,会删除那些可能是错误的伪标签。Under a simple and r.原创 2022-04-06 14:56:18 · 1538 阅读 · 0 评论 -
supervised contrastive learning 解读
SupCon 定义:Clusters of points belonging to the same class are pulled together in embedding space, while simultaneously pushing apart clusters of samples from different classes.novelties:属于同一类的归一化后的特征表示靠得越近越好,不同类的靠的越远越好。并且,一个anchor 样本,具有多个正样本,sel-sup 通原创 2022-04-03 15:31:17 · 5251 阅读 · 1 评论 -
co-learning:learning from noisy labels with self-supervision 解读
co-learning:learning from noisy labels with self-supervision摘要novelties传统方法的limitationsrelated work方法实验摘要受到co-training的启发,作者将supervised learning和self-supervised learning 结合起来。原创 2022-03-26 12:57:08 · 2074 阅读 · 0 评论 -
Dual Graph: a graph-based method for reasoning about label noise 解读
现有的limitation: 被选择的样本不能利用所有的数据的信息,尤其是标签 被破坏的情况。作者的novelties:DualGraph 捕获了标签之间的structural relations,包括两个level:instance-level,distribution-level。实例层面利用实例的相似性表征样本的类别,分布层面描述每个sample和其他sample的实例相似度分布。通过instance similarity的分布来优化instance-level的关系。训练了两个网络,在r原创 2022-03-25 20:24:58 · 2138 阅读 · 1 评论