CH2-NLG应用之【故事生成】


大多基于神经网络的故事生成都是有提示的,比如看图写作、根据关键词写作、文章续写(通常是一句话,而且和前面看图写作及根据关键词写作不同的是,我们不关心系统生成的句子如何) ???存疑

4.1 看图写作

Storytelling Workshop在2018年举办了一场看图写作的比赛,根据五张有序图片生成一个故事。

而看图写作本身则是通过一张图片生成一段文本。比如

有趣的是,看图写作不是照搬了有监督image captioning,因为在这里并没有刻意学习的数据对。

4.4.1 句子编码

Kiros在2015年提出了Skip-Thought Vectors的方法,它是一种通用的句子编码方法。其实Skip-thought的想法和word2vec是一致的。在一句话中,一个词与它的上下文存在某种语义联系,那么在一段话中,一个句子与其上下句也是存在某种语义联系的,skip-thought的动机和word2vec中的skip-gram类似&

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值