![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文笔记
文章平均质量分 81
REDer科研日记
这个作者很懒,什么都没留下…
展开
-
【Convolutional Network Embedding of Text-Enhanced Representation for Knowledge Graph Completion】
关键词(方法/相关描述):TECRL;文本增强;嵌入表示;CNN;文本描述信息;特征信息;注意力机制;word2vec①当前的研究主要集中在知识图谱中的三元结构和关系路径的知识表示,而没有充分利用外部文本信息来语义上补充知识表示。②然而,现有的知识库,如智能健康和情感关怀系统,相对匮乏,结构性知识不完整,因此知识图谱补全变得至关重要。①高复杂度影响大规模知识图谱的构建:大多数人工神经网络降维方法都是在低维空间中找到知识的语义向量表示,同时保留原始图的结构特征。原创 2023-11-13 21:29:27 · 63 阅读 · 2 评论 -
【LM作为知识库: On Entity Representations, Storage Capacity, and Paraphrased Queries】
关键词(方法/相关描述):PLM;LM as KB范式只在非常有限的环境中被考虑LMs as KBs:在训练期间,LM 遇到在其训练数据中表达的世界知识事实,其中一些以某种形式存储在 LM 的参数中。训练后,可以通过合适的自然语言查询从 LM 的参数中恢复一些存储的事实。探讨的问题:数百万的实体如何表示在LMs中?(KB由数百万的实体,而LM词语库的尺寸不超过100k项)—>比较了将LM-as-KB扩展到数百万个实体的三种方法(符号表示;表面形式表示和连续嵌入表示)LMs存储世界知识的能力如何?原创 2023-11-13 18:56:40 · 47 阅读 · 0 评论 -
【Joint Language Semantic and Structure Embedding for Knowledge Graph Completion阅读笔记】
关键词(方法/相关描述):csdn论文笔记模板原创 2023-11-12 21:37:08 · 56 阅读 · 0 评论 -
【用于KGC的上下文LM:Contextual Language Models for Knowledge Graph Completion阅读笔记】
背景:KG incpmplete and inconsistent解决的问题:使用NLMs解决KGC解决思路:GPT-2 based KGC模型;将三元组分类视作序列分类问题具体方法:从三元组分类的GPT-2模型微调中获得了初步结果受KG-BERT的启发,本文研究基于GPT-2的KGC模型,以三元组分类为子任务。将KG中三元组视作句子并将三元组分类视为序列分类问题。原创 2023-11-12 21:23:00 · 58 阅读 · 1 评论 -
《Collaborative Policy Learning for Open Knowledge Graph Reasoning》
CPL;多代理;强化学习;Open KGR;交替训练;分布式表示;自适应采样;PCNN-ATT;浙江大学傅聪可解释的知识图谱推理,很多方法因为在稀疏图谱上缺乏证据链路,导致性能受限;现存的神经网络图谱推理方法挑战性能受图谱的稀疏性和完整性的影响大(缺失的边使得代理很难找到通往目标实体的)证据链路现存的方法都设定图谱是静态的并且不能适应动态丰富KG。翻译 2023-11-12 19:20:24 · 45 阅读 · 1 评论