历史篇| 语言模型发展进程

【小白入门篇1】GPT到底是怎样练成?》介绍过大语言模型的工作原理就是预测下个词的概率, 其实语言模型从最初开始定义就是一种对令牌序列(token)的概率分布。假设有一个令牌集的词汇表 V 。语言模型p为每个令牌序列 x1,...,xL ∈ V 分配一个概率(介于0和1之间的数字).

从数学视角来看, 语言模型是一个非常简单而又美妙的对象, 但是现实很难利用这个概率模型, 赋予所有序列以(有意义的)概率的能力,该能力要求语言模型具有非凡的(但是隐含的)语言能力和世界知识。语言模型不仅有语法识别能力, 更有语义识别能力.

 比如“人吃饭”与“饭吃人”, 在语法视角都是符合主谓宾语结构,但在语义上却存在差异,而语言模型需要具备卓越的语言能力和世界知识,才能准确评估序列的概率。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序猿阿三

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值