paper:https://arxiv.org/abs/1912.02164
code:
-
https://github.com/uber-research/PPLM (单独 PPLM)
-
https://github.com/huggingface/transformers/tree/master/examples/pplm (集成 Transformer)
一. NLP 研究人员们提出过各种各样的条件文本生成方式,包括,
- 从一个预训练语言模型开始,做精细调节,以便让它始终都能生成某种特定风格的句子;2. 从零开始训练一个大型条件生成模型;
- 不改变这个大的语言模型,而是通过关键 n 元组替换的方式,调节已经生成的句子的风格。
PPLM 的最大优点是不需要对语言模型做任何额外的改动(不需要重新训练或者精细调节),就能直接在预训练语言模型的基础上生成条件文本。简单的说就像我只需要一个模型的api,在不需要修改别人模型下就能根据我们自己算法提供的约束条件,控制文本生成;