关系抽取论文笔记【研一上】05

一、《Relation Classification Using Segment-Level Attention-based CNN and Dependency-based RNN》

1、结合片段级的基于attentionCNNSACNNs可以捕获每个词的重要性)和基于依赖的RNNDepRNNs可以捕获长距离信息,使用的是两个实体之间的最短路径)

2、输入的embedding包括

1)实体信息:在每一句话中加入实体标记<e1S>, <e1E>, <e2S>,<e2E>

2)词向量:使用预训练向量

3)基于树的位置特征(TPF):每个词在依赖树的最短路径上的与两个实体的相对位置信息。

3 SACNNs:把句子按照两个实体分为三段,分别进入CNN,用公式得出最终的表示r

4 DepRNNs:依赖树的最短路径表示进入BILSTM,得到最终表示r2.

6、拼接rr2,进入softmax

总结:结合片段级的基于attentionCNNSACNNs)和基于依赖的RNN DepRNNs )进行关系抽取。并在输入的时候加入了实体标记和基于树的位置特征(TPF)。【SemEval2010 Task8】

二、《Graph Neural News Recommendation with Unsupervised Preference Disentanglement》

1、之前的推荐都是学习用户的表示和新闻的表示,很少考虑用户-新闻之间的高层的交互性,现在的方法没有捕获用户潜在的偏好。此篇文章把用户和新闻建立二部图,命名GNUD。此模型通过在图上的信息传播可以捕获用户新闻之间的高阶关系,通过一个邻居路由算法可以学习用户潜在的偏好因素。

2、由邻域路由学习表示,它可以动态的识别潜在偏好,并将新闻分到一个子空间,这个子空间可以提取和偏好因素有关的特征。为了加强解耦子空间可以反映一个独立的偏好,又设计了一个偏好正则器,以最大化信息理论中两个随机变量之间的互信息度量依赖性,进一步加强用户和新闻之间的disentangled表示(解耦表示)。

3、由新闻标题T和新闻序言P得到新闻表示hPT分别进入PCNN,连接新的表示,再进入全连接层,得到新闻的向量表示hd

4、用户和新闻建立二部图,用户到新闻之间有边代表用户点击了新闻。信息在图之间传播,进而得到高阶的关系,模型也可以得到解耦表示

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值