自步学习的损失函数

本文探讨了自步学习(Self-Paced Learning)在损失函数中的应用,从一般损失函数到加入正则项,再到引入自步学习的优化问题。通过引入二元变量Vi来表示样本的难易程度,调整损失函数,使得模型在学习过程中优先关注误差较小的样本。系数K的大小影响样本被定义为容易的程度,随着K的减小,模型会考虑更多样本。这样的学习过程模拟了从易到难的学习策略。
摘要由CSDN通过智能技术生成

自步学习(Self-Paced Learning)的损失函数

对文章 Self-paced Learning-for Latent Variable Models 中损失函数的由来进行解读
(最好对应着原论文看哦~)

不谈SPL的理论了,别的资料里说的很多~只聊聊损失函数的形式

之后有机会分析下以下三篇

  1. Self-paced Convolutional Neural Networks
  2. Easy Samples First: Self-paced Reranking for Zero-Example Multimedia Search
  3. What Objective Does Self-paced Learning Indeed Optimize?

机器学习中一般的损失函数形式

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值