【论文阅读笔记】诗歌生成的四篇论文

Chinese Poetry Generation with Planning based Neural Network

COLING 2016
源码
方法:
两阶段生成诗词:

  • Step 1: 生成诗词主题
    根据人输入的关键词或句子,提取诗词关键词,根据待生成句子的数量,生成对应数量的关键词。使用TextRank算法结合word2Vec词向量对关键词重要性排列,取最重要的关键词。
    如果能提取的关键词过少,则使用RNN进行预测新的关键词。
    如果用户输入的关键词不在词典中,使用Knowledge-based method进行关键词扩充(百度百科、wikepedia、WordNet)
  • Step2:生成诗词
    第一步生成的关键词结合上一个时间步生成的诗词作为双向RNN的输入,利用Attention机制,生成诗词。
    在这里插入图片描述
    在这里插入图片描述

Chinese Poetry Generation with a Working Memory Model

arxiv 2018
源码
基于认知心理学的理论概念,提出了一种新的诗歌生成工作记忆模型
模型结构:sequence-to-sequence framework+Working Memory Model

  • Decoder: GRU
  • Encoder:双向RNN
  • Working Memory:
    topic Memory:存储用户输入的关键词
    history Memory:存储由Decoder生成的上上句诗词中的重点词汇,
    类似于认知心理学中的long-distance history。
    local Memory:存储由Decoder生成的上句诗词,
    类似于认知心理学中的short-distance history。
  • Genre embedding: 结合生成诗句的长度和音素编码,控制生成诗句
    的韵律和结构。
    在这里插入图片描述

Image Inspired Poetry Generation in XiaoIce

源码
解读

Rhetorically Controlled Encoder-Decoder for Modern Chinese Poetry Generation

ACL 2019
源码
论文介绍
为了将修辞学应用到中文汉语诗歌的生成上,本文提出了一种用于现代汉语诗歌生成的修辞控制编码器。我们的模型依赖于一个连续的潜在变量修辞控制器在编码器中捕获各种修辞模式,然后结合基于修辞的混合物,生成现代汉语诗歌。在比喻、拟人、自动化的评估方面,模型相比于最先进的基线具有很大的优势,并且人工评估显示,模型生成的诗歌在流畅性、连贯性、意义和修辞美学方面都优于基本方法。
本文是第一篇在诗歌生成中引入修辞控制的论文。

  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值