腾讯一面问的,这个知识点平常从未遇到过,当时是以为是朴素贝叶斯的平滑方法,说了Add-1 Add-k interpolation good turning smoothing,但没想到还有标签平滑这个东西。笔者当时才研一上学期不到… 刚学习NLP!哈哈
产生背景
工作原理
可以看出,损失比之前增加了,他的标签平滑的原理是对真实标签做了改变,
源码里的公式为:
new_onehot_labels = onehot_labels * (1 - label_smoothing) + label_smoothing / num_classes
腾讯一面问的,这个知识点平常从未遇到过,当时是以为是朴素贝叶斯的平滑方法,说了Add-1 Add-k interpolation good turning smoothing,但没想到还有标签平滑这个东西。笔者当时才研一上学期不到… 刚学习NLP!哈哈
![](https://img-blog.csdnimg.cn/6c403f2fa1c348dfab968a6fffa27681.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAWHVfV2F2ZQ==,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center)