半监督笔记-2

接上篇,同样引:https://blog.csdn.net/shangjiankeji/article/details/112681450

2.3 Π Model & Temporal ensembling Model: Temporal ensembling for semi-supervised learning, 2017

这篇研究工作由 NVIDIA 的研究小组完成,其中包含两个半监督算法框架,分别是 Π Model和Temporal ensembling Model, 二者都可以认为是 Γ Model 的简化版。

剔除了 Γ Model 中各种繁复的设计之后,本论文保留了最核心的思想:利用一致性正则(Consistency Regulation)从无标签的数据中提取有效信号。

一致性正则表达了设计者对于模型这样一种先验,即网络在输入数据的附近空间应该是平坦的,即使输入数据发生微弱变化,模型的输出也能够基本保持不变。

Π Model 核心思想:
在这里插入图片描述

如上图所示,Π Model 包含两个核心点:

第一:对每一个参与训练的样本,在训练阶段,进行两次前向运算。此处的前向运算,包含一次随机增强变换和一次模型的前向运算。由于增强变换是随机的,同时模型采用了 Dropout,这两个因素都会造成两次前向运算结果的不同,如图中所示的两个。

第二:损失函数由两部分构成,如下图所示。

  • 第一项由交叉熵构成,仅用来评估有标签数据的误差。
  • 第二项由两次前向运算结果的均方误差(MSE)构成,用来评估全部的数据(包括标签数据,无标签数据)。其中,第二项含有一个时变系数,用来逐步释放此项的误差信号。此处的第二项即是用来实现一致性正则。

在这里插入图片描述

Temporal ensembling Model,其整体框架与 Π Model 类似,在获取无标签数据的信息上采用了相同的思想,唯一的不同是:在目标函数的无监督一项中,Π Model是两次前向计算结果的均方差,而在temporal ensembling模型中,采用的是当前模型预测结果与历史预测结果的平均值做均方差计算。

相对于 Π Model,这种做法有两方面的好处:
①用空间来换取时间,在相同 epoch的情况下,总的前向计算次数减少了一半,因而训练速度更快;
②通过历史预测做平均,有利于平滑单次预测中的噪声。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
半监督深度学习是一种结合了监督学习和无监督学习的方法,旨在利用有限的标记数据和大量的未标记数据来进行模型训练。在半监督学习中,回归任务是核心,而分类任务的信息被用来优化回归函数。\[2\]半监督学习的目标是通过找到一个函数来适应数据,从而实现回归任务。这个函数的优化过程则利用了分类任务的信息。\[2\] 在半监督学习中,还有一种特殊情况叫做自监督学习。自监督学习是一种从大规模无监督数据中挖掘自身监督信息的机器学习方法。它需要标签,但这些标签不是来自人工标注,而是来自数据本身。自监督学习的监督信号源于数据本身的内容,也可以看作是实例级别的标注,每个样本是一个类。自监督学习方法可以基于上下文、时序或对比等方式进行。\[3\] 所以,半监督深度学习是一种结合了监督学习和无监督学习的方法,旨在利用有限的标记数据和大量的未标记数据进行模型训练。而自监督学习则是半监督学习的一种特殊情况,它通过挖掘数据本身的监督信息来进行训练。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *2* [半监督学习笔记(一):综述,定义,方法](https://blog.csdn.net/IRONFISHER/article/details/120328715)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [机器学习(Machine learning,ML) 学习笔记(区分监督学习与半监督学习)](https://blog.csdn.net/czmjy/article/details/124426142)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值