选中自然语言处理任务的连续表达


选中自然语言处理任务的连续表达
雷锋网 2016-07-18 17:18:25 查看源网址
阅读数:438

联合编译:Blake、章敏、陈圳


选中自然语言处理任务的连续表达

l  针对信息检索和个人排序的深度语义相似模型(DSSM)

l  在连续语义自然语言处理任务环境中进行深度强化学习

l  针对字幕与视觉问题回答的多元语义学习&推理


对自然语言学习连续语义表达,例如:从原始语句到一个抽象语义矢量

在许多自然语言处理任务中Sent2Vec非常重要,它可以处理包括网页搜索、广告选取、文本排序、在线推荐、机器翻译、知识架构、问题回答、个性化推荐、图片搜索、图标注释等问题。

监督问题:

虽然

l  需要学习的文本语义是隐藏的

l  且没有明确的目标学习模型

l  另外不知如何反向传播?

但是幸运的是

l  我们一般知道俩个文本是否“相似”

l  这就是语义表达学习的信号

深度架构语义模型

深度架构语义模型/深度语义相似模型,将整个句子转换成连续语义空间。例如:句子变成矢量

DSSM基于字符(非词汇)建立实为了其可拓展性和普适性

DSSM被训练来优化相似驱动对象

在字符级别进行编码,即词汇散列。

在字符级别建立的DSSM,将任意词汇分解成一系列相关字符,倾向于处理大规模自然语言任务。

DSSM:一个相似驱动Sent2Vec模型

初始化:神经网络使用随机权重进行初始化

训练:在语义矢量之间计算余弦相似度

运行时间

训练目标:基于余弦相似度的损失

使用网页搜索作为示例:

查询q与一系列文档D

目标:给定查询后点击文档的可能性

在DSSM中使用卷曲神经网络

在卷曲层对本地文本进行建模

在汇聚层对全局文本进行建模

模型在卷曲层捕捉本地本文相关词的意义,并学习了每个本地文本相关词的嵌入矢量。

CDSSM:在最大汇聚层发生了什么?

将本地主题聚集起来形成全局化

识别最大聚集层的主要词汇/短语

在最大聚集层获得最活跃的神经元词汇

针对学习检索的DSSM,训练数据组搜索记录中的语义相关文本组。


实验设定

卷曲深度语义模型取得最佳结果。

语义匹配示例

卷积DSSM:

在卷积隐层一个接一个就行编码

隐层在最后一个词汇对整句进行语义编码

通过余弦相似驱动目标来训练模型

使用长短期记忆(LSTM)结果:

LSTM比常规RNN学得快得多

LSTM能有效代表使用矢量句子的语义信息

DSSM与Seq2Seq对比

给出一个特别用户的文章跨度代表利益实体,并寻找实体的补充文件。

学习DSSM的语境实体次序

从网页浏览日志提取标签对,超链接指向维基百科P`时,P`中的H的锚文本,环境词汇,文本

语境实体搜索——实验设置:

1.训练/验证数据是维基页面中18M的用户点击量

2.评估数据:首先采样10k的网页文件作为源文件,然后使用文档中被命名的实体作为查询;第三保留100个返回文件作为目标文件,最后手动标记是否每一个目标文件都可以完好的描述实体。其中总共有870k标签对。

语境实体搜索的结果

一些相关的工作:

深度CNN文本输入(文章中主要的分级任务)

序列到序列的学习;段落矢量(学习段落的矢量)

递归NN(树状结构如分解)

张量积代表(树状代表)

树状结构LSTM网络(树状结构LSTM)

强化学习的模型——包括环境状态设置S;行动设置A,以及状态之间的转换规则;状态转换的即时奖励规则和代理观察规则。

Q-learning用于学习RL的政策(代理在给定的当前状态选择行动时必须遵循的规则)。其目的是找到MDP的最优政策,方法是:学习一个行动-价值函数,a.k.a。Q-函数:用于计算在训练收敛之后的状态上,所采取行动的期待效用。

最近的成就:深度Q网络在玩五个Atari游戏时,达到了人类级别的性能。其中使用了卷积神经网络计算Q(s,a),并利用大的行动空间,忽略小的行动空间。

最近的成就(续):机器人AlphaGO打败了世界围棋冠军。它与深度Q网络设置类似,忽略小的行动空间,它的模型中建立了两个CNNs网络(policy网络和value网络)。

语言理解的强化学习:以文本串的形式描述状态和行动,代理通过文本串做出相应正确的行动(正确指最大化长期奖励)。然后,环境状态转换到新的状态,代理也得到即时奖励。

行动空间和状态空间都非常的巨大,而且行动的特征由无界神经语言描述确定。

在NLP任务中,行动空间的特征由神经语言决定,它是离散的且近乎于无边界。我们提出了深度强化相关网络,将状态和空间都规划到连续的空间中,其中Q-函数是状态矢量和行为矢量的相关函数。

学习连续空间的视觉化,图2表示了:嵌入状态矢量和相关行动矢量后200,400,600训练片段的文本PCA项目。状态指:当你向前移动时。你周围的人脸上露出了恐怖的表情,并逃离街道。行动1(好的选择):向上看,行动2(不好的选择):无视他人的警告继续前进。

DRRN和DQN在两个文本游戏上的测试结果(学习曲线)

表展示了聚集后Q函数的示例值,且DRNN很好的概括了无法看见的行为。

人类学习处理文本,图像和联合的信息。

图像侧卷积网络实现过程

语言侧卷积网络实现过程

图像说明,通过深度学习模式检测图像中的关键概念,MELE从图像检测中产生解释。检测单词后,对其进行重新排列组成句子。

CaptionBot示例

说明到回答问题的过程



堆积注意模式推理工程:问题模式,图像模式,多水平注意模式,回答预测器。

SAN图像模式

SAN中问题模式

回答示例

总结:

本部分主要介绍通过DSSM学习Sent2Vec,在连续空间内对NLP任务进行强化学习以及视觉语言联合表达学习等概念。具体包括:

通过DSSM学习Sent2Vec:

DSSM把整个句子放在连续的空间内基于特征字符级别建立DSSMDSSM直接优化目标函数的语义相似度

在连续空间内对NLP任务进行强化学习:

使用深度神经网络把状态和行动(无边界NL决定)放入连续语义空间

在连续语义空间计算Q函数

视觉语言联合表达学习:

图像解释——CaptopnBot示例

视觉问题回答——关键在于推理


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值