文章目录
大多基于神经网络的故事生成都是有提示的,比如看图写作、根据关键词写作、文章续写(通常是一句话,而且和前面看图写作及根据关键词写作不同的是,我们不关心系统生成的句子如何) ???存疑
4.1 看图写作
Storytelling Workshop在2018年举办了一场看图写作的比赛,根据五张有序图片生成一个故事。
而看图写作本身则是通过一张图片生成一段文本。比如
有趣的是,看图写作不是照搬了有监督image captioning
,因为在这里并没有刻意学习的数据对。
4.4.1 句子编码
Kiros在2015年提出了Skip-Thought Vectors的方法,它是一种通用的句子编码方法。其实Skip-thought
的想法和word2vec
是一致的。在一句话中,一个词与它的上下文存在某种语义联系,那么在一段话中,一个句子与其上下句也是存在某种语义联系的,skip-thought
的动机和word2vec
中的skip-gram
类似&