你的语言模型有没有“无法预测的词”?

这篇博客探讨了在理论上存在训练好的分类模型可能存在无法预测的类别,尤其是在语言模型中,尽管实践中这种情况非常罕见。文章通过数学证明展示了在特定条件下如何构造这样的例子,并提供了判断模型是否存在此类别的方法。此外,作者指出,由于现代深度学习模型中使用的Normalization技术,实际语言模型中出现“无法预测的词”的概率极低。
摘要由CSDN通过智能技术生成

0eebe457dbfa685c7cbf1f592d595968.gif

©PaperWeekly 原创 · 作者 | 苏剑林

单位 | 追一科技

研究方向 | NLP、神经网络

众所周知,分类模型通常都是先得到编码向量,然后接一个 Dense 层预测每个类别的概率,而预测时则是输出概率最大的类别。但大家是否想过这样一种可能:训练好的分类模型可能存在“无法预测的类别”,即不管输入是什么,都不可能预测出某个类别 k,类别 k 永远不可能成为概率最大的那个。

当然,这种情况一般只出现在类别数远远超过编码向量维度的场景,常规的分类问题很少这么极端的。然而,我们知道语言模型本质上也是一个分类模型,它的类别数也就是词表的总大小,往往是远超过向量维度的,那么我们的语言模型是否有“无法预测的词”?(只考虑 Greedy 解码)


8bc84eb23848d64c01a9ad4d6c9439ba.png


是否存在

ACL 2022 的论文《Low-Rank Softmax Can Have Unargmaxable Classes in Theory but Rarely in Practice》[1] 首先探究了这个问题,正如其标题所言,答案是“理论上存在但实际出现概率很小”。

首先我们来看“理论上存在”。为了证明其存在性,我们只需要具体地构建一个例子。设各个类别向量分为 ,偏置项为 ,假设类别 k 是可预测的,那么就存在 ,同时满足:

cf3b25e966f8c524c39d82b05f1aa862.png

反过来,如果类别 k 不可预测,那么对于任意 ,必须存在某个 ,满足:

c4a5dbeda46018b7f9d168f4bc9b02f3.png

由于现在我们只需要举例子,所以简单起见我们先考虑无偏置项的情况࿰

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值