《论文阅读》连续前缀提示Prompt:table-to-text和摘要生成 ACL2021
前言
你是否也对于理解论文存在困惑?
你是否也像我之前搜索论文解读,得到只是中文翻译的解读后感到失望?
小白如何从零读懂论文?和我一起来探索吧!
今天为大家带来的是《Prefix-Tuning: Optimizing Continuous Prompts for Generation》
出版:ACL
时间: 2021
类型:table-to-text generation using GPT ;summarization using BART
特点:固定PLM参数+优化前缀提示+连续提示
作者:Xiang Lisa Li
第一作者机构:Stanford University