自监督学习相关
文章平均质量分 93
自监督学习
马鹏森
这个作者很懒,什么都没留下…
展开
-
Contrastive loss(NT-Xent loss)对比学习损失、代码实现
SimCLR使用的是这个损失,很多的对比学习使用的也是这个损失。原创 2024-09-16 11:29:57 · 238 阅读 · 0 评论 -
Bootstrap your own latent :A new approach to self-supervised Learning(BYOL)(论文解读)
Bootstrap your own latent :A new approach to self-supervised Learning(论文解读)原创 2022-08-26 21:49:29 · 1507 阅读 · 0 评论 -
meta-learning(元学习)是什么?
什么是元学习?原创 2022-08-25 19:43:01 · 3474 阅读 · 0 评论 -
Improving Few-Shot Learning with Auxiliary Self-Supervised Pretext Tasks(论文解读)
Improving Few-Shot Learning with Auxiliary Self-Supervised Pretext Tasks(论文解读)原创 2022-08-25 17:36:18 · 431 阅读 · 0 评论 -
Improving Few-Shot Learning with Auxiliary Self-Supervised Pretext Tasks(代码理解)
Improving Few-Shot Learning with Auxiliary Self-Supervised Pretext Tasks(代码理解)原创 2022-08-25 17:07:40 · 333 阅读 · 0 评论 -
Boosting Few-Shot Visual Learning with Self-Supervision(代码理解)
Boosting Few-Shot Visual Learning with Self-Supervision(代码理解)原创 2022-08-24 21:26:48 · 672 阅读 · 0 评论 -
知识蒸馏是什么?(Knowledge Distillation)KD
知识蒸馏是什么?(Knowledge Distillation)KD原创 2022-08-23 10:53:32 · 1004 阅读 · 0 评论 -
自监督直接和具体任务的结合(Task Related Self-Supervised Learning)的探索
这篇论文的思想非常直观,如图,首先,Data Augmentation相关的方法会对通过对原始图片进行一些变换(颜色、旋转、裁切等)来扩充原始训练集合,提高模型泛化能力;Multi-task learning将正常分类任务和self-supervised learning的任务(比如旋转预测)放到一起进行学习。作者指出通过data augmentation或者multi-task learning等方法的学习强制特征具有一定的不变性,会使得学习更加困难,有可能带来性能降低。因此,。原创 2022-08-22 20:43:13 · 1328 阅读 · 0 评论 -
Multi-View Learning(多视图学习/多视角学习 )是什么? Co-training(协同训练)和它的关系
单视图学习可以在传统的垃圾邮件过滤中见到。比如我们训练一个classifier去筛选垃圾邮件,我们可以通过自然语言处理(NLP)去通过邮件的内容来判断它是否是垃圾邮件。我们通常会增加一些features,比如标点符号的比例,邮件的文档长度。新的features和文档内容放在同一个视图下,我们在这里可以把视图理解为一个pd.dataframe。然后通过监督学习(supervised-learning)去训练一个模型。.........原创 2022-08-16 17:24:04 · 7139 阅读 · 0 评论 -
Accurate prediction of molecular targets using a self-supervised image rep...(代码理解)
Accurate prediction of molecular targets using a self-supervised image rep...(代码理解)原创 2022-08-16 10:57:26 · 803 阅读 · 0 评论 -
重学自监督学习(精)
自监督学习再次学习原创 2022-08-15 21:17:52 · 1021 阅读 · 0 评论 -
自监督学习系列(三):基于 Masked Image Modeling
自监督学习系列(三):基于 Masked Image Modeling原创 2022-08-15 19:34:12 · 1589 阅读 · 2 评论 -
自监督学习系列(二):基于 Contrastive Learning
自监督学习系列(二):基于 Contrastive Learning原创 2022-08-15 18:58:56 · 1117 阅读 · 0 评论 -
自监督学习(一):基于 Pretext Task
自监督学习(一):基于 Pretext Task原创 2022-08-15 16:49:21 · 2785 阅读 · 0 评论 -
Accurate prediction of molecular targets using a self-supervised image rep...(论文解读)
Accurate prediction of molecular targets using aself-supervised image representation learningframe原创 2022-08-13 15:56:32 · 1454 阅读 · 1 评论 -
CutPaste:Self-Supervised Learning for Anomaly Detection and Localization 论文解读(缺陷检测)
CutPaste:用于异常检测和定位的自监督学习原创 2022-08-14 20:39:31 · 1637 阅读 · 1 评论 -
自监督学习: 人工智能的未来
目录1. 什么是自监督学习?2. 为什么自监督学习是AI的未来?3.1 Computer Vision:[1] 2015 (ICCV) Unsupervised Learning of Visual Representations Using Videos[2] 2015 (ICCV) Unsupervised Visual Representation Learning by Context Prediction[3] 2016 (ECCV) Unsupervised learni原创 2021-12-13 20:08:15 · 8516 阅读 · 0 评论 -
无监督学习、自监督学习之间的区别和联系?以及为什么要在Vision Transformer自监督学习?
任何接触过机器学习的人都肯定听说过监督学习和无监督学习。这些实际上是机器学习的两种重要的可能方法,已被广泛使用多年。然而,直到最近,一个新术语“自我监督学习”出现了爆炸式增长!但是让我们一步一步来,一一看看各种方法,试图找到与人脑的类比。监督学习就像“基于标记示例的学习”。该模型使用标记数据进行训练,因此它们已被仔细标记,使每个示例都与特定类别相关联。通过研究每个类的各种示例的特征,该模型学会了泛化,甚至能够对它从未见过的数据进行分类。为了应用这种方法,因此需要标记良好的数据,但并不总是可用的,并且该.原创 2021-12-13 17:13:50 · 18815 阅读 · 1 评论 -
Self-Supervised Learning 超详细解读 (目录)
0 MotivationSelf-Supervised Learning,又称为自监督学习,我们知道一般机器学习分为有监督学习,无监督学习和强化学习。 而 Self-Supervised Learning 是无监督学习里面的一种,主要是希望能够学习到一种通用的特征表达用于下游任务 (Downstream Tasks)。 其主要的方式就是通过自己监督自己。作为代表作的 kaiming 的 MoCo 引发一波热议, Yann Lecun也在 AAAI 上讲 Self-Supervised Learning原创 2021-12-09 20:01:36 · 9481 阅读 · 2 评论