[NLP论文阅读] The Fixed-Size Ordinally-Forgetting Encoding Method for Neural Network Language Models

本文介绍了一种固定大小的序列表示方法——FOFE,用于神经网络语言模型,特别是在前馈神经网络语言模型(FNN-LMs)中。通过FOFE编码,模型能有效地处理不定长序列,并在多项实验中表现出优于传统one-hot编码的效果。FOFE编码具有唯一性,且在输入层的应用简化了模型结构,提高了训练效率。
摘要由CSDN通过智能技术生成

论文原文:The Fixed-Size Ordinally-Forgetting Encoding Method for Neural Network Language Models

引言

这篇文章提出了一种学习不定长序列表示的方法,并将该方法用于前反馈神经网络的语言模型(feedforward neural network language models, FNN-LMs),得到了不错的实验数据。作者通过用FOFE编码的序列替换FNN-LMs中原有的输入层实现了对FNN语言模型的改进。

Fixed-size Ordinally Forgetting Encoding

给定词表大小(vocabulary size)为K,FOFE使用one-hot编码来表示,每一个单词,即一个K维向量来表示单词。FOFE使用下列公式对不定长序列进行编码:
zt=αzt1+et(1tT)
其中, zt 表示从输入序列中由第一个单词 w1 直到第t个单词 wt 组成的子序列的FOFE编码(假设 z0=0 ), α 是forgeting factor(常数),

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值