两消两现指的是_指代消解两个经典工作

Outline:Manning研究线

Span ranking model线

第一部分 Manning and Clark研究线(2016)

1. Deep Reinforcement Learning for Mention-Ranking Coreference Models

这篇文章解决问题:强化学习思想用在Mention-Ranking Model 中。

1.1Baseline模型:

指代消解模型一般可以分为两个阶段:第一阶段先找出文章中我们需要找到的Mention。第二阶段对所有找到的Mention分成一簇一簇,一簇就是不同的Mention指代了相同意思的集合。

在文章中假设已经通过某种算法对文本进行了Mention的抽取。所以只讨论第二阶段。

Mention-Ranking定义了一个序列问题,假设m个mention,遍历m个mention,在每个mention上计算当前mention的每个先行词组成一个pair的向量表达,如图:

再过一个:wx + b 的layer可以轻松得到一个分数,最后选一个最大的分数的pair,说明mention和这个先行词是我们找的一对共指。

如图如果遍历到了x3上,分别计算他的先行词x1, x2和他组成pair(x1, x3),(x2, x3)的分数,然后取最大的作为一对共指。

loss function:

这里红框中的是mi和先行词组成pair中分数最大的。

equation?tex=%5C%28%5CDelta_%7Bh%7D%5Cleft%28c%2C+m_%7Bi%7D%5Cright%29%5C%29 公式如下:

是一个衡量不同错误所受惩罚的权重系数,实验中有一个固定的最好值:

equation?tex=%5C%28%5Cleft%28%5Calpha_%7B%5Cmathrm%7BFN%7D%7D%2C+%5Calpha_%7B%5Cmathrm%7BFA%7D%7D%2C+%5Calpha_%7B%5Cmathrm%7BWL%7D%7D%5Cright%29%3D%280.8%2C0.4%2C1.0%29%5C%29

然后梯度更新这个loss。

1.2 加入强化学习改进

文章中提到两种方法的改进:Reward Rescaling 和 The REINFORCE Algorithm

Reward Rescaling:

其实就是改进了Baseline model loss function的

equation?tex=%5C%28%5CDelta_%7Bh%7D%5Cleft%28c%2C+m_%7Bi%7D%5Cright%29%5C%29 这个衡量不同错误大小的权重系数,在这里使用了强化学习中reward的定义,值得一提这里的reward使用了指代消解的一个评测方式

equation?tex=%5C%28B%5E%7B3%7D%5C%29 来定义,

equation?tex=%5C%28%5CDelta_%7Bh%7D%5Cleft%28c%2C+m_%7Bi%7D%5Cright%29%5C%29 公式:

equation?tex=%5C%28%5Cbegin%7Baligned%7D+%5CDelta_%7Br%7D%5Cleft%28c%2C+m_%7Bi%7D%5Cright%29%3D%26-R%5Cleft%28a_%7B1%7D%2C+%5Cldots%2C%5Cleft%28c%2C+m_%7Bi%7D%5Cright%29%2C+%5Cldots%2C+a_%7BT%7D%5Cright%29+%5C%5C+%26%2B%5Cmax+_%7Ba_%7Bi%7D%5E%7B%5Cprime%7D+%5Cin+%5Cmathcal%7BA%7D_%7Bi%7D%7D+R%5Cleft%28a_%7B1%7D%2C+%5Cldots%2C+a_%7Bi%7D%5E%7B%5Cprime%7D%2C+%5Cldots%2C+a_%7BT%7D%5Cright%29+%5Cend%7Baligned%7D%5C%29

直接意思:如果mention i 选择了先行词c作为一对共指,看看奖励总数和去掉他的奖励总数差距多少,差距小就是影响小,证明这个错误是个小错误,相应权重系数也小。

The REINFORCE Algorithm:

整个过程模拟强化学习:

action:

待续

参考文献:

Improving Coreference Resolution by Learning Entity-Level Distributed Representations

Deep Reinforcement Learning for Mention-Ranking Coreference Models

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值