Topic-to-Essay Generation with Neural Networks阅读笔记和部分实验

本文介绍了使用神经网络进行话题到短文生成的研究,包括数据集构建、三种模型架构(基础语言模型、注意力机制模型、衰减权重模型)以及训练过程中的词向量训练和模型参数调整。实验结果显示,模型能生成通顺的文本,但存在'UNK'问题,挑战在于中文词汇的丰富性。
摘要由CSDN通过智能技术生成

备注:一下除了图片是论文中的,其它全部是原创。

1 问题描述:

根据5个给定的话题词,生成一篇短文,要求大概就是这篇短文起码要通顺把,然后5个话题都要出现在这篇短文当中。

2 数据集介绍:

作者自己构建了两个数据集,一个是作文的数据集,另外一个是zhihu数据集,感觉作文的数据集数据质量比较高,zhihu的数据集质量比较差一点,而且作文数据集5个话题全部出现在了生成的短文里面,而zhihu数据集5个话题不一定出现在了短文里面,所以zhihu数据集更加难以学习。下面两张图是我统计出的两个数据集的文本长度分布。第一个是作文的数据集,第二个是zhihu的数据集,画出这个分布的主要目的是为了确定那个LSTM的时间步的设置,因为作者使用的是静态rnn在训练的过程中时间步是确定的,所以这个时间步也就是num_steps必须提前确定,那么这个时间步对于zhihu的数据集作者取得是101,多一个主要是语言模型得两个标记START和EOS,而且一句话需要错位预测(我自己的话)。

评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值