mixup: BEYOND EMPIRICAL RISK MINIMIZATION
这是ICLR2018的论文。
https://arxiv.org/abs/1710.09412
从本质上来说,mixup是在一对训练样本和标签的凸组合上训练神经网络。
众所周知,在监督学习中,训练样本是一对
(
x
i
,
y
i
)
(x_i,y_i)
(xi,yi)。
mixup的做法就是随机抽取两个样本,然后对其进行插值。
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/02a006d4a381f67f64c2d7d382641285.png)
代码也非常简单。
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/f0e6a1745bda4c890eaac6273888766a.png)
但是效果就是很好。还发了顶会。
mixup的做法,导致决策边界从一个类线性过度到另一个类,提供了一个更加平滑的不确定估计。