周末讲座的内容,很泛的了解。
另外,transE 优化目标,头实体+关系=尾实体,低维语义表示,这想法赞。建模!
或者参考这篇:http://www.tuicool.com/articles/jEzmUv
一
- 开始的是one hot,cout base distribute representation,再到后面的同一语义空间
- 第一方面,三元组的形式
- transE 优化目标,头实体+关系=尾实体,低维语义表示
- 复杂关系(1-n,会使得尾实体很像),所以,可以用tansH transR等
- 第二方面,融合文本与知识的关系抽取,NYT+FB Weston 2013.前面的是基于知识图谱的三元关系,也可以扔进去文本,自动学习
- 第三方面,关系路径的建模,父亲的父亲
- PTransE,考虑关系的表示学习,把关系路径也表示成为低位向量
- https://github.com/thunlp/KG2E 居然有代码
二
- pass,知识抽取
三
- 推理的方式:
- embedding base transE(数据驱动型)
- path ranking Algorithm(数据驱动型)
- 概率图模型,马尔科夫(额外的规则设定)
- embedding base
- 定义实体和关系的表示方式
- 定义打分函数
- 优化方法
- path ranking Algorithm
- 精确度高
- 限制性高,对稀少的关系、连通性差的不好
- 特征抽取,然后特征计算,然后做classification
- 每种关系,都要有一个分类器
- 可以将关系进行组合
- 特征抽取,用随机游走等?
四
- 语义关系抽取:我生病了 –> 我生病了
- “唐朝的中书省、门下省XXX” –> (中书省->中央机构)(门下省->中央机构)
- 有监督的方法:+ 基于特征的分类(需要大量语料,领域适应性不强)
- 无/弱监督方法
- 资源+表示模型+算法
- 语义漂移