Abatract
- Distant supervision 在包含很多关系的大语料中做 scale relation extraction 很有效。
- 目前的方法存在flaws:对于 selecting valid instances 和 lack of background knowledge about the entities.
- 我们的改进:
- 提出的模型:we propose a sentence-level attention model to select the valid instances, which makes full use of the supervision information from knowledge bases.
- 补充背景知识:And we extract entity descriptions from Freebase and Wikipedia pages to supplement background knowledge for our task.
并且这些背景知识不仅可以在预测关系的时候提供更多的信息,而且在Attention机制中带来了更好的实体表示。
- 在一个广泛使用的数据集上的实验表明我们的 Model 效果确实好!
Introduction
基于远程监督的关系抽取的目标是根据给定的知识库,预测文本中实体之间的语义关系(predict semantic relations between pairs of entities in texts)。