Why do Nearest Neighbor Language Models Work?

本文探讨了KNN-LM在语言模型中的优势,尤其是其通过检索增强和近似搜索机制,以及与标准参数LM的对比。研究还涉及softmax层的优化和矩阵运算在提高KNN-LM效率中的作用。实验部分展示了KNN-LM的有效性和改进之处。
摘要由CSDN通过智能技术生成

在这里插入图片描述
语言模型是什么?
通过上下文的表示并使用表示预测下一个单词来计算概率

为什么引入检索增强偶线,特别是k最近邻语言模型(knn-lm)比标准参数LM表现得更好。

原因如下?
使用不同得输入表示来预测下一个token
近似knn搜索
softmax温度对Knnfenbu de zhongyaoxing

引言

1.语言模型
2.检索增强得LM
3.KNN-LM是比较著名得检索增强模型
4.由于KNN-LM是否可以提高因为这个LM得参数容量?
KNN-LM是否还能进行改进?
5.knn组件和标准lm组件之间得联系?
两个单词分布都是用softmax计算得
基于上下文嵌入与对应于不同下一个单词得一组嵌入的相似性。
我们将参数LMs中使用的softmax层和子嵌入层的非参数分布计算形式化并推广。
datastore里面的内容embedding的数量
softmax层中input representation的表示
不同相似性函数
knn搜索中的近似和稀疏化实现。

为什么好?
1。()是重要的
softmax层的输出embedding用transformer的不同层两个表示

2。knn-lm使用近似最近邻搜索来处理大量的候选者,缺少精度性实际上有助于KNN-LM比使用精度最近邻搜索和距离计算。
正则化效应。

3。温度项的设置

引言与相关工作

本文试图解决什么问题?

这是一个新的问题吗?如果是,为什么值得研究?如果不是,已有工作有什么缺陷?

有哪些相关工作,如何归类,是什么启发了作者的这个思路?

与早期论文相比,这篇论文的关键区别和开创性工作是什么?
1.探索了knn-lm好的原因
2.解决Knn效率低下的原因,通过矩阵运算代表knn搜索来提高knn_lm的效率,可以加速内存,也可以保持一般以上的困惑都改进。

方法

knn-lm
上下文ci,下一token wi
(ci,wi)
knn lms创建一个数据存储
f(ci),wi)

KNN分布基于当前上下文和数据存储中最近邻之间的距离,并且softmax归一化
标准参数语言模型中,词汇表上的分布也基于距离的度量,当前上下文嵌入和词汇表中每个标记的单词嵌入之间的内积

实验

实验如何设计?

使用的数据集?

实验的结果有没有充分支持该工作是有意义的?

没看懂!!!!!!!!!!!!!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

向上Claire

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值