知识图谱的构建与互联网场景的应用

在这里插入图片描述
公众号 系统之神与我同在

本文包括:

1、知识图谱的介绍

2、知识图谱的应用和实体连接的优势

3、知识图谱构建的技术

4、个人知识图谱

知识图谱

在这里插入图片描述
为什么知识图谱很有用?
在这里插入图片描述
在推荐系统的应用
在这里插入图片描述
在知识库的实体链接
在这里插入图片描述

实体连接
在这里插入图片描述
在这里插入图片描述
传统方法的实体链接
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

挑战和限制

在这里插入图片描述
重新审视传统方法

在这里插入图片描述
直觉:深度检索

我们用一个深度模型去获取候选答案,代替了前面所述的别名表
在这里插入图片描述
使用双编码器进行实体检索(Entity retrieval with dual encoders ,DEER)

在这里插入图片描述
DEER的限制

·Shallow BOW model for both encoders, not very expressive.
·Requires a sophisticated negative mining setup to work well.

BERT

BERT是2018年NLP的重大进步。它融合了这些想法:

·迁移学习
·上下文词嵌入
·Transformers
·用无监督的数据进行预训练

主要思想: 用大量未标签的数据去预训练一个好的语言模型

BERT任务
在这里插入图片描述
用BERT做实体链接?
在这里插入图片描述

RELIC评估
在这里插入图片描述
洞察问答系统:
在这里插入图片描述
RELIC的限制

无法一次性设置:必须要大概10个提及去学习一个可以推理的文本嵌入
很难去学习巨大规模的知识库:训练上十亿的单词嵌入是非常有挑战性的
回顾挑战

在这里插入图片描述
使用BERT做多语言的实体编辑器
在这里插入图片描述
多语言模型EL数据集的表现
在这里插入图片描述
发布新的多语言EL数据集

在这里插入图片描述
在100种语言的实体链接
在这里插入图片描述
多语言应用的例子
在这里插入图片描述
零次学习和少量学习的实体链接
在这里插入图片描述
示例架构
在这里插入图片描述

实体阅读理解评分
在这里插入图片描述
知识库来的构造
在这里插入图片描述
KBC介绍——从文本到知识库
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
用BERT构建更现代的方法
在这里插入图片描述
知识库构建的挑战

·某些语言资源少
·训练中的数据噪音
·时效性很强的知识和事件
·多种形式和来源的KBC
·个人知识图谱的构建和展示

新主题:个人知识图谱
在这里插入图片描述
个人知识图谱的举例
在这里插入图片描述
用户画像VS个人知识图谱
在这里插入图片描述
在这里插入图片描述
个人知识图谱的工业应用

在这里插入图片描述
个人知识图谱的示例
在这里插入图片描述
个人知识图谱的挑战和公开问题
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值