![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
知识图谱
游离态GLZ不可能是金融技术宅
这个作者很懒,什么都没留下…
展开
-
论文阅读笔记:Graph Matching Networks for Learning the Similarity of Graph Structured Objects
论文做的是用于图匹配的神经网络研究,作者做出了两点贡献:证明GNN可以经过训练,产生嵌入graph-leve的向量可以用于相似性计算。作者提出了一种新的基于注意力的跨图匹配机制GMN(cross-graph attention-based matching mechanism),来计算出一对图之间的相似度评分。(核心创新点)论文证明了该模型在不同领域的有效性,包括具有挑战性的基于控制流图(control-flow-graph)的函数相似性搜索问题、软件系统漏洞检测。实验分析表明,图匹配模型不仅能够原创 2020-10-15 13:08:08 · 2089 阅读 · 2 评论 -
论文浅尝 | Enriching Pre-trained Language Model with Entity Information for Relation Classification
论文针对句子级别的关系抽取问题提出了一种结合BERT预训练模型和目标实体信息的模型。1. 文章主要贡献提出将 BERT 用在了关系抽取任务, 探索了实体和实体位置在预训练模型中的结合方式。可以通过在实体前后加标识符得方式表明实体位置, 代替传统位置向量的做法,论文也证实了这种方法得有效性。2. 论文模型详解2.1 数据预处理1)针对输入进来的句子,需要在句首增加[cls]符号2)在第一个实体前后增加$符号3)在第二个实体前后增加#符号e.g. “The kitchen is原创 2020-07-23 22:22:48 · 325 阅读 · 0 评论 -
论文浅尝 | K-BERT: Enabling Language Representation with Knowledge Graph
1.论文动机论文认为通过泛用型公开语料预训练得到的BERT模型只拥有“常识”,在特定垂直领域(如科技、医疗、教育等)的任务中表现效果存在提升空间。由于pre-training and fine-tuning在领域上的差异,利用BERT做知识驱动任务的时候表现不尽如人意。论文提出的K-BERT通过引进知识图谱(将知识库中的结构化信息(三元组)融入到预训练模型)中,可以更好地解决领域相关任务。如何将外部知识整合到模型是论文解决的核心难点,他存在两个问题:Heterogeneous Embedding S原创 2020-07-22 19:32:21 · 1563 阅读 · 0 评论 -
大白话讲解如何从0开始构筑一个知识图谱+领域问答机器人
从本科毕业设计开始就一直做知识图谱方面的应用,回想起刚开始做的时候连一些概念性的博客都很难找到,想结合学到现在的经验做一个知识图谱入门的介绍和简单实战,有兴趣或者有需求入门知识图谱的同学们欢迎和我一起讨论交流,也希望各路大佬在知识图谱领域能给我写建议和帮助。博客相关代码:https://github.com/GLZ1925/TechServerKG原创 2020-04-28 14:48:44 · 1700 阅读 · 5 评论 -
如何在网页前端里可视化你的知识图谱
如何在网页前端里可视化你的知识图谱最近费尽千辛万苦构造了一份可以用(大概)的知识图谱,并且把要利用知识图谱做的领域命名实体识别和一些推荐的功能做成Web版的demo,顺带想实现一些可视化知识图谱的功能。(凭啥知识图谱就只能在Neo4j里自嗨,不能来前端show一下,歧视吗(¬_¬))找了做前端图表展示的开源库,D3.js和Echarts都能做,我拿Echarts实现了一下功能,先看一下在现在...原创 2020-03-14 12:00:32 · 11821 阅读 · 8 评论