大火的扩散模型终于杀到了NLP领域

从2020年的初出茅庐,到2021年的日趋火热,再到2022年的大放异彩,扩散模型(Diffusion Models) 正在人工智能学术界和工业界获取越来越多的关注。

如果还不是特别了解扩散模型的朋友,可以阅读卖萌屋的几篇历史推文《扩散模型在图像生成领域大火,风头超过GAN?》, 《年末回顾:2021年 AI 领域十大研究趋势及必读论文》

扩散模型最早在图像生成领域大火,随后扩展到了其他连续域,例如语音、视频、点云数据,最近Google发布的用于文本到图像生成的GLIDE模型,更是让扩散模型从AI圈内火到了圈外。

不过,虽然扩散模型的热度极高,但是面向离散变量的扩散模型的性能一直欠佳,特别是在语言,图等结构当中。

最近,斯坦福大学自然语言处理研究组在利用扩散模型解决自然语言处理问题中取得了新的进展。

具体说来,在可控自然语言生成任务上,研究者们利用连续扩散模型,对预训练的语言生成模型进行可插拔的操控,就能够在许多任务上达到甚至超过Fine-Tuning的效果,大幅度超越了之前的工作。

这篇工作从方法和实验上都非常的新颖和扎实,短短一周就已经在Twitter上收获了千赞,在Github上收获了140个stars。

下面,就让我们一起来了解这篇扩散模型在语言领域的应用工作吧,说不定也能给你的领域带来启发呢~

f831353e6d242c1018a780afc8fbb1bb.jpeg

论文标题:
Diffusion-LM Improves Controllable Text Generation

链接:
arxiv.org/pdf/2205.1421

声明:本文原创首发于公众号“夕小瑶的卖萌屋”,作者:Yimin_饭煲
传送门: 夕小瑶的卖萌屋,内含海量NLP论文综述、论文解读、入门资料等,一个每日每月挖掘重磅前沿论文的神器,以及聚集数万NLPer、CVer和算法工程师的技术交流群~

问题背景

首先,我们先来了解一下可控语言生成任务。语言生成任务指的是,给定语言模型

p_{lm}(\textbf{w}) , 其中
\textbf{w}=[w_1,w_2,...,w_n] 是词汇的序列,自回归语言模型可以表示为

p_{lm}(\textbf{w})=p_{lm}(w_n|w_{1,2,...,n-1})p_{lm}(w_{n-1}|w_{1,2,...,n-2})...p_{lm}(w_1)

可控语言生成指的是,给定控制变量

c ,例如语法结构,情感,生成词汇序列
p(w|c)

一般来说,估计

p(w|c) 的方式是,训练一个从词汇序列
w 到控制变量
c 的分类器
p(c|w) ,然后利用贝叶斯公式
p(\textbf{w}|c)\propto p_{lm}(\textbf{w})p(c|\textbf{w})
优化
p_{lm}(\textbf{w})
的作用是使得输出流利,优化
p(c|\textbf{w})
的作用是使得
\textbf{w}
满足控制变量的约束。

主要方法

扩散模型的基本设置

a178302522d6dd29a85fc8f27e63b7ab.png

将数据定义为

\textbf{x}{0}\in R^d
,定义
\textbf{x}{T} 为一个满足高斯分布的随机变量
p_{\theta}(\textbf{x}T)=N(0,I)
。定义一个马尔可夫过程
\textbf{x}{T}...\textbf{x}{0}
,状态转移方程为
p(\textbf{x}{t-1}|\textbf{x}{t})=N(\textbf{x}{t-1};\mu_{\theta}(\textbf{x}t,t),\Sigma{\theta}(\textbf{x}t,t))
,其中
\mu{\theta}
\Sigma_{\theta} 由U-Net或者Transformer估计。为了训练扩散模型,我们需要定义前向和后向两个过程,前向过程为加噪声过程
q(\textbf{x}t|\textbf{x}{t-1})=N(\textbf{x}t;\sqrt{1-\beta_t}\textbf{x}{t-1},\beta_t\textbf{I}) , 其中
\beta_t 表示在第
t 步扩散时添加的噪声,前向过程
q 不包含可训练的参数,只提供一个将原始数据扩散为噪声的过程。扩散模型的优化目标是最大化边缘概率分布
E_{\textbf{x}0\sim p{data}}[\log p_{\theta}(\textbf{x}_0)] , 可以转化为变分下界损失函数

L_{vlb}(\textbf{x}_0)=E_{q(\textbf{x}_{1:T}|\textbf{x}_0)}[\log\frac{q(\textbf x_T|\textbf x_0)}{p_{\theta}(\textbf x_T)}+\sum_{t=2}^T\log\frac{q(\textbf x_{t-1}|\textbf x_0, \textbf x_t)}{p_{\theta}(\textbf x_{t-1}|\textbf x_t)}-\log p_{\theta}(\textbf x_0|\textbf x_1)]

不过这一变分下届在实际中优化比较不稳定,因此一般使用如下的简化方式进行优化、

L_{simple}\sum_{t=1}^TE_{q(\textbf x_t|\textbf x_0)}||\mu_{\theta}(\textbf x_t,t)-\hat \mu(\textbf x_t,\textbf x_0)||^2 其中
\hat \mu(\textbf x_t,\textbf x_0) 是后验分布
q(\textbf x_{t-1}|\textbf x_0, \textbf x_t) 的平均值,而
\mu_{\theta}(\textbf x_t,t) 是利用神经网络预测的
p_\theta(\textbf x_{t-1}|\textbf x_t) 的均值。已有的工作已经说明了这一优化目标的有效性。

Diffusion LM的端到端训练

为了将连续的扩散模型应用到离散文本上,首先定义离散文本的Embedding函数

EMB(\textbf w_i) 将每个词语映射到一个连续向量。因此在扩散模型训练,在前向过程中需要多加入一步从离散词汇映射到连续向量
q_\phi(\textbf x_0|\textbf w)=N(EMB(\textbf w, \sigma_0I) , 在反向过程中,加入一步从连续向量映射到离散词汇
p_\theta(\textbf w|\textbf x_0) , 这一步通过Softmax分类实现。最后可以将Diffusion LM的训练目标转换为如下的形式
L_{vlb}^{e2e}(\textbf w)=E_{q_\phi(\textbf x_0|\textbf w)}[L_{vlb}(\textbf x_0)+\log q_\phi(\textbf x_0|\textbf w)-\log p_{\theta}(\textbf w|\textbf x_0)]

L_{simple}^{e2e}(\textbf w)=E_{q_\phi(\textbf x_{0:T}|\textbf w)}[L_{simple}(\textbf x_0)+||EMB(\textbf w)-\mu_\theta(\textbf x_1,1)||-\log p_{\theta}(\textbf w|\textbf x_0)]

Diffusion LM的解码和生成

Diffusion LM的可控生成等价于从后验分布

p(\textbf x_{0:T}|c) 中解码, 在每一步扩散中,优化目标为
p(\textbf x_{t-1}|\textbf x_t,c)\propto p(\textbf x_{t-1}|\textbf x_t)p(\textbf c|\textbf x_{t-1},\textbf x_t) , 由于马尔科夫链的一阶相关性,在第
t 步可以使用如下的梯度优化方式,为了保证生成文本的流利性,作者们还使用了一些正则化的技巧。
\nabla_{\textbf x_{t-1}} \log p(\textbf x_{t-1}|\textbf x_t,c)=\nabla_{\textbf x_{t-1}} \log p(\textbf x_{t-1}|\textbf x_t) + \nabla_{\textbf x_{t-1}} \log p(c|\textbf x_{t-1}) 为了提升生成的输出的质量,作者们还使用了在机器翻译中常用的最小贝叶斯风险(MBR)解码方式。

实验结果


a73b19dc650e2b6ca2ab92cd74c28b63.jpeg

作者们在情感控制,可控语法生成等任务上开展了实验,和PPLM,FUDGE等可插拔式方法进行对比,可以发现Diffusion-LM相比之前的同类方法有极为显著的提升,特别是在部分任务上,甚至可以达到和微调相似的结果。


c2b9c2cad2e67085484967fe39440780.jpeg

组合控制是可控文本生成的另一个常见场景。给定关于多个独立任务的控制条件,要求模型生成满足多个控制条件的文本。Diffusion LM在这一场景下也表现出了更好的控制成功率。

bb32518c943452e71e74c52e7da5c92e.jpeg

在句子填充任务(给定左边文本

O_1 和右边文本
O_2 ,输出中间的内容连接两段文本)上,Diffusion LM显著超越了之前的工作COLD和Delorean, 并且达到了和从头训练的自回归语言模型相近的效果。

结语

扩散模型受到了非平衡热力学的启发,具有良好的数学表达形式。在图像生成任务上优秀的性能证实了其不是徒有虚表的“花瓶”,而是深度学习时代的一大杀器。尽管扩散模型仍然具有计算时间长等问题,我们仍可以期待其在更多模态的数据和任务上取得惊人的表现!

声明:本文原创首发于公众号“夕小瑶的卖萌屋”,作者:Yimin_饭煲
传送门: 夕小瑶的卖萌屋,内含海量NLP论文综述、论文解读、入门资料等,一个每日每月挖掘重磅前沿论文的神器,以及聚集数万NLPer、CVer和算法工程师的技术交流群~
  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值