一、《Relation Classification Using Segment-Level Attention-based CNN and Dependency-based RNN》
1、结合片段级的基于attention的CNN(SACNNs可以捕获每个词的重要性)和基于依赖的RNN(DepRNNs可以捕获长距离信息,使用的是两个实体之间的最短路径)
2、输入的embedding包括
(1)实体信息:在每一句话中加入实体标记<e1S>, <e1E>, <e2S>,<e2E>。
(2)词向量:使用预训练向量
(3)基于树的位置特征(TPF):每个词在依赖树的最短路径上的与两个实体的相对位置信息。
3、 SACNNs:把句子按照两个实体分为三段,分别进入CNN,用公式得出最终的表示r。
4、 DepRNNs:依赖树的最短路径表示进入BILSTM,得到最终表示r2.
6、拼接r和r2,进入softmax
总结:结合片段级的基于attention的CNN(SACNNs)和基于依赖的RNN( DepRNNs )进行关系抽取。并在输入的时候加入了实体标记和基于树的位置特征(TPF)。【SemEval2010 Task8】
二、《Graph Neural News Recommendation with Unsupervised Preference Disentanglement》
1、之前的推荐都是学习用户的表示和新闻的表示,很少考虑用户-新闻之间的高层的交互性,现在的方法没有捕获用户潜在的偏好。此篇文章把用户和新闻建立二部图,命名GNUD。此模型通过在图上的信息传播可以捕获用户新闻之间的高阶关系,通过一个邻居路由算法可以学习用户潜在的偏好因素。
2、由邻域路由学习表示,它可以动态的识别潜在偏好,并将新闻分到一个子空间,这个子空间可以提取和偏好因素有关的特征。为了加强解耦子空间可以反映一个独立的偏好,又设计了一个偏好正则器,以最大化信息理论中两个随机变量之间的互信息度量依赖性,进一步加强用户和新闻之间的disentangled表示(解耦表示)。
3、由新闻标题T和新闻序言P得到新闻表示h,P和T分别进入PCNN,连接新的表示,再进入全连接层,得到新闻的向量表示hd。
4、用户和新闻建立二部图,用户到新闻之间有边代表用户点击了新闻。信息在图之间传播,进而得到高阶的关系,模型也可以得到解耦表示