图计算论文笔记--Label Noise Reduction in Entity Typing by Heterogeneous Partial-Label Embedding

Label Noise Reduction in Entity Typing by Heterogeneous Partial-Label Embedding

已有的方法在学习后得到实体的类别有很多,但有的不需要的噪音。在这里插入图片描述
如图,对特朗普的定位是person,politician,businessman,artist,actor。但在不同的语境下,其实并不能把特朗普打上这些所有的标签,其实只是其中的一部分。

其实论文主要的方法就是建立一个网络,然后创建目标方程对顶点进行嵌入学习。
总流程:
在这里插入图片描述

  • 建立网络
    *在这里插入图片描述

有三部分。

第一部分:是实体M和type y连接,也就是可以建立成一个二分图,使用已有的数据创建,比如维基百科,就有现成的数据,人物和人物的标签,这个网络就是上图的实现的部分,网络的权重是1。

第二部分:是实体M和text特征F连接,首先要把和M有关的text提取特征,文章使用了已有的其他论文提出的方法,将text分成下表很多特征,然后进行连接。图中就是带有点的线的地方。
在这里插入图片描述第三部分:对类型y之间进行连接,首先建立成树状连接,使用知识库的数据进行补充最后心成图。补充的图是两个点之间相互连接,添加上权重。权重就是两个type之间有的重叠的数据。在这里插入图片描述
从图上可以看出,第一部分是一开始的树,第三部分是知识库中的数据,我们使用知识库中的数据,计算权重:
在这里插入图片描述
顶点k和k‘之间的权重和两者拥有的实例重叠有关。

  • 对网络进行嵌入
    网络的三部分分别进行目标公式的建立。

第一部分:
在这里插入图片描述
也就是建立成margin-based loss,让实体拥有的类别的点乘最大值和实体不拥有的类别的点乘最大值差别更大。

第二部分:
对实体的文本特征的嵌入目标公式,就是对概率,也就是相关的对的概率大,其实就是skip-gram的方法:
在这里插入图片描述
加上负样本:
在这里插入图片描述
第三部分:
和第二部分一样,使用skip-gram的方法在这里插入图片描述
加入负样本:在这里插入图片描述

综合起来三部分:
在这里插入图片描述
其中:
在这里插入图片描述
Omy后的两部分是约束正则项

  • 总结:
    其实就是考虑实体、type、text数据,建立成异构网络,结合skip-gram的概率目标函数和margin loss来形成神经网络进行学习。
    注意论文中采用最靠近的type最为节点的最终type。
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值