自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using Large Language Models

虽然大型语言模型 (LLM) 在理解和生成非结构化文本方面取得了相当大的进步,但它们在结构化数据中的应用仍未得到充分探索。特别是,使用LLM进行知识图(KG)上的复杂推理任务在很大程度上仍未触及。为了解决这个问题,本文提出了 KG-GPT,这是一个利用 LLM 来完成使用 KG 的任务的多功能框架。KG-GPT 包括三个步骤:句子分割、图检索和推理,每个步骤分别旨在分割句子、检索相关图组件和得出逻辑结论。

2024-03-11 15:49:06 1008

原创 Reasoning on Graphs: Faithful and Interpretable Large Language Model Reasoning

大型语言模型(LLM)在复杂任务中表现出令人印象深刻的推理能力。然而,他们缺乏最新的知识,在推理过程中会产生幻觉,这可能导致不正确的推理过程,降低他们的表现和可信度。知识图(KGs)以结构化格式捕获大量事实,为推理提供了可靠的知识来源。然而,现有的基于知识图的LLM推理方法只把知识图作为事实知识库,忽视了知识图的结构信息对推理的重要性。本文在分析了现有文献的基础上,提出了一种称为图上推理(RoG)的新方法,该方法使LLM与KGs协同工作,实现忠实和可解释的推理。具体来说,本文提出了一个规划-检索-推理框架。

2024-03-09 14:22:58 1350 1

原创 Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMsFramework for Knowledge Graph Question Answering

尽管大型语言模型 (LLM) 在知识密集型任务上具有竞争力,但在记忆所有世界知识(尤其是长尾知识)方面仍然存在局限性。在本文中,我们研究了知识图谱增强语言模型方法,用于解决需要丰富世界知识的知识图谱问答(KGQA)任务。现有的工作表明,检索KG知识,以提高LLM提示可以显着提高LLM在KGQA的性能。然而,这些方法缺乏KG知识的良好形式的语言化,即,它们忽略了KG表示和文本表示之间的差距。为此,本文提出了一个对答案敏感的KG-to-Text的方法,可以将KG知识转化为对KGQA最有用的文本化陈述。

2024-03-09 13:21:19 1316 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除