作者:禅与计算机程序设计艺术
1.简介
概率语言模型(probabilistic grammar model)近年来受到越来越多学者的关注和重视,其在自然语言处理、机器翻译、图像识别等领域都取得了很好的效果。然而,如何训练概率语言模型,尤其是在生成式方法中,仍然是一个具有挑战性的问题。随着深度学习技术的不断发展,基于神经网络的生成式模型已经变得越来越流行。由于神经网络可以对输入进行处理并给出输出结果,因此可以自动地学习到一个复杂的模式,从而能够有效地解决传统的统计语言模型所面临的一些困难,比如规律和上下文等。但是,基于神经网络的方法往往需要较高的计算资源才能训练出来,并且难以保证模型的泛化能力。同时,如何使用神经网络来训练概率语言模型仍然是一个未解之谜。
在这篇文章中,作者将介绍一种新的基于神经网络的端到端(end-to-end)的概率语言模型——结构化随机图解析器(Structured Random Graphparser),或IRTG (Interpretable Robust Text Generation)。IRTG 的提出动机是为了克服统计语言模型面临的长期困境——人们常常需要花费大量的时间来训练,而训练出的模型往往难以理解和解释,这也成为目前使用神经网络进行语言建模的研究的一个难题。IRTG 可以直接从数据中学习到语言的语法结构和语义,而且学习到的语法结构和语义信息是可解释的。通过这种方式,IRTG 可以更好地完成文本生成任务。
IRTG 由两部分组成,分别是推理规则表示器(IRTG Parser)和生成模型(IRTG Generator)。IRTG Parser 是用来学习句法结构的随机图模型。它可以利用手工构造的特征函数或者通过深度学习的方式来学习这些特征。IRTG Generator 则是基于神经网络的生成模型,用于根据学