【读论文0628】Does Learning Require Memorization? A Short Tale about a Long Tail∗

这篇记录没啥用,这个论文我没看懂
Does Learning Require Memorization? A Short Tale about a Long Tail

发表时间:STOC 2020 (ACM SIGACT Symposium on Theory of Computing)


论文内容

研究问题

分类模型对训练数据的记忆是否必要。

Intuition

即使标签随机分配,模型也能达到很低的训练误差。这种不可预测的标签也能拟合,只有通过全部记住样本和它对应的标签。

具体分析

泛化误差:
err P ( h ) = err S ( h ) + ( err P ( h ) − err S ( h ) ) \text{err}_P(h)=\text{err}_S(h) + (\text{err}_P(h)-\text{err}_S(h)) errP(h)=errS(h)+(errP(h)errS(h))

  • err p ( h ) \text{err}_p(h) errp(h)–泛化误差
  • err s ( h ) \text{err}_s(h) errs(h)–经验/估计误差
  • P P P–数据分布
  • S S S–训练集
    通过模型复杂度或者算法稳定性近似。

应该是这个论文里最重要的一个结论:
err ‾ ( π , F , A ) ≤ ( o p t ) ( π , F ) + τ 1 ⋅ E [ err S ( A , 1 ) ] \overline{\text{err}} (\pi,\mathcal{F},\mathcal{A})\le \text(opt)(\pi, \mathcal{F})+ \tau_1\cdot \textbf{E}[\text{err}_S(\mathcal{A},1)] err(π,F,A)(opt)(π,F)+τ1E[errS(A,1)]

  • err ‾ ( π , F , A ) \overline{\text{err}} (\pi,\mathcal{F},\mathcal{A}) err(π,F,A)是对算法 A \mathcal{A} A的期望泛化误差。
  • ( o p t ) ( π , F ) \text(opt)(\pi, \mathcal{F}) (opt)(π,F) 是任意算法最小可达误差。
    什么意思。。。没懂

τ 1 : = E α ∼ π ‾ N [ α 2 ⋅ ( 1 − α ) n − 1 ] E α ∼ π ‾ N [ α ⋅ ( 1 − α ) n − 1 ] \tau_1:=\frac{\textbf{E}_{\alpha\sim \overline{\pi}^N}[\alpha^2\cdot (1-\alpha)^{n-1}]}{\textbf{E}_{\alpha\sim \overline{\pi}^N}[\alpha\cdot (1-\alpha)^{n-1}]} τ1:=EαπN[α(1α)n1]EαπN[α2(1α)n1]

π ‾ N \overline{\pi}^N πN平滑版本的 π \pi π π \pi π是类别频率边界分布。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值