序列模型笔记

EOS标记可以添加到训练集每一个句子的结尾。
计算机对于自然语言的理解只能通过把文本转化为向量、矩阵的形式,通过计算来获取有用的信息,词嵌入应运而生。
词嵌入(WordEmbedding)的目的在于把某个词语、短语映射到高维空间,让相同、相近含义的字词在空间距离上距离相近

RNN的每一个神经元的softmax的输出就是词典的大小,每个词都有对应的概率。
下面是RNN从左到右依次预测每个词的过程。
在这里插入图片描述
上图是第一个神经元,然后再把第一个预测到的概率最大的输入到下一个神经元。

在这里插入图片描述

损失函数:每个时间步:
在这里插入图片描述
在这里插入图片描述总的损失函数就是把所有时间步的损失都加起来。

采样使用的是随机采样:np.random.sampling
原因:如果是直接采用的softmax最大概率的预测,那么生成模型显然不具备结果多样性的特点。
注意,由于一些不是频繁出现的字符自定义置为某些字符比如都是 UNK,所以如果采样都UNK,可以继续采样来替换。

可以使用字符级的语言模型预测,即就是字母,数字,空格等符号组成原本的文本,这样就不会有新的未知短语的出现。但是需要更多的算力!!没有广泛的应用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值