笔记整理:沈小力,东南大学硕士,研究方向为多模态大预言模型、知识图谱
论文链接:https://arxiv.org/abs/2401.12863
发表会议:AAAI2024
1. 动机
本文探索了知识图谱在扩展大语言模型的多模态能力的效果,提出了KAM-CoT框架。将CoT(Chain-of-Thought)推理、知识图谱(KGs)以及多种模态融入大语言模型,以促进对多模态任务的综合理解。在多模态视觉问答(VQA)任务上,该框架在较少的训练参数下达到了当前的SOTA效果。
KAM-CoT框架旨在应对多模态理解和幻觉问题的挑战,并力图用较低的可训练参数数量(280M)实现能与更大模型相比的高性能。KAM-CoT创新性地将知识图谱和CoT推理相结合:通过在推理过程中引入外部知识,提高了模型对复杂问题的解决能力和答案的质量。
如上图所示,该图展示了一个视觉问答任务