论文题目: Editing Conceptual Knowledge for Large Language Models
本文作者: 王潇寒(浙江大学)、毛盛宇(浙江大学)、邓淑敏(新加坡国立大学)、姚云志(浙江大学)、申月(蚂蚁集团)、梁磊(蚂蚁集团)、顾进捷(蚂蚁集团)、陈华钧(浙江大学)、张宁豫(浙江大学)
发表会议: EMNLP 2024 Findings
论文链接: https://aclanthology.org/2024.findings-emnlp.40/
代码链接: https://github.com/zjunlp/EasyEdit
一、引言
概念,例如“动物”或“工具”,用于总结和表达一类事物的共性特征和本质属性。人类通过对具体事物的观察和分析,将个体间的相似点提炼出来,形成更高层次的认知和理解。在众多评测基准中,大语言模型凭借其强大的自然语言处理能力,展现出了与人类智能相接近的表现。然而,这些模型是否能够真正像人类一样理解概念,并基于新的信息实现概念知识的更新,依然是一个充满挑战性的问题。
此外,在研究概念本身变化的过程中,关联实例的变化同样是不可忽视的重要因素。当概念的定义发生调整时,作为其具体化表现的实例集合也会随之改变。例如,新定义可能会将一些实例排除出概念的范畴,或纳入此前未被涵盖的新实例。这种概念与实例之间的双向关联,反映了知识动态更新的过程。
二、概念知识编辑
知识编辑这一技术的核心在于,它能够在保留已有知识的同时,局部性地更新模型的知识库。在以往的研究中,知识编辑技术尤其在实例层面的知识修改取得了显著的成效,通过外部干预或内部更新的方式纠正某些事实性错误或更新陈旧知识。使用知识编辑技术,可以避免重新训练整个模型,节省大量的计算资源和时间,同时也避免了训练过程中可能引入的新错误。知识编辑方法在实例层级上的成功,为概念层面的知识对齐提供了重要的启示和方法论基础。通过对概念进行针对性的编辑,从而修改模型对某些抽象概念的理解,使其更准确地反映新的知识定义和关系。
概念知识编辑任务是指通过调整概念知识的定义,对大语言模型在处理相关概念时的表现进行目标导向的优化与对齐。这一任务聚焦于大语言模型内部知识库中的概念级别表示,通过对其定义和语义边界的修改,使模型准确地理解和生成与目标概念相关的文本内容。
从概念知识表示的角度来看,“概念” 可以形式化的表示为 ,其中代表概念的名称或符号化标签,则代表着该概念的语义定义。基于这一表述,概念知识编辑的目标在于通过针对性地修改概念的语义定义,将原始概念转化为编辑后的形式C*=(c,d*) ,其中d*反映了更新后的概念定义。举个例子,“出版社”这一概念,其对应的原始概念定义为“印刷和分发印刷品或电子媒体的公司”。概念知识编辑,将大语言模型对于出版社的定义修改为为“在冰壶比赛中相互竞争的一组运动队”这样一个全新的描述。这样一种完全扭曲的概念定义,由于在训练阶段从未出现过,能够在一定程度上模拟现实中可能发生的情况,例如新概念替代旧定义、新概念的引入,或者已有概念的删除。
此外,概念知识编辑任务中还需要定义与概念相关的具体实例,例如出版社这一概念下“维多利亚大学出版社”等实例在该任务中被视为是必要的组成部分。概念与实例之间的关系可以通过“is_a”或类似的“is_type_of”表达式来表示,即实例是概念的一个特定成员或子类,通过公式形式化表示。通过判断编辑后 或者 来确定实例的从属关系是否发生变化,以反映概念知识与实例知识的联系是否发生深层变化。
三、概念数据集构建
概念的选择: 本体(Ontology)是一种形式化的知识表示方法,用于定义领域内的概念及其之间的关系。在本体中,核心元素是类(Classes),它们以结构化的方式连接相关实例,体现了概念的层次性和语义关系。我们采用了广受欢迎的 DBpedia Ontology作为基础。DBpedia Ontology是一个本体概念的开放知识库,它以树状结构组织概念和实例,具备层级清晰、内容广泛的特点。并利用 type_of 关系为每个概念随机抽取了 20 个实例,用于后续任务的辅助分析。例如DBpedia Ontology中,“城市”作为一个高层级概念,包含了许多具体的实例(如“杭州”“上海”),DBpedia Ontology这种体系化的结构非常适合用于概念数据集。
概念的定义: 尽管DBpedia Ontology树状结构提供了概念和实例的基本框架,但对于每个概念的具体定义和语义描述相对匮乏。为了弥补 DBpedia 在概念定义上的不足,我们引入了另一知名知识库——Wikidata。例如,当 DBpedia 标注“摩天大楼”这一概念时,Wikidata 可以进一步补充其定义:“一种高度超过特定值的高层建筑物”。同时,为了提高数据质量,我们对所有引入的概念和定义描述进行了人工审核,替换掉模糊或不准确的描述。
数据处理: 为满足概念知识编辑的评测要求,经过描述符生成、邻近项构建、实例筛选、数据分割这四个步骤的处理最终得到结构化概念数据集 ConceptEdit。
数据统计: 经过上述数据集构建的流程,我们最终获得了ConceptEdit数据集。该数据集包含了452个不同的概念和8767个具体实例,其中这些概念被组织和归类为22个超类。
四、概念指标设计
为了评估大语言模型概念知识编辑效果,我们设计了一套专门的任务指标体系。这一指标体系在事实知识编辑中已有评估指标的基础上进行了适配,同时针对概念知识编辑的特点进行了必要的扩展与创新。目前事实知识编辑的评估指标最先由 Mitchell 等人提出的成功率和失败率发展而来,形成了包括可靠性(Reliability)、泛化性(Generalization)和局部性(Locality)等几个基础指标。尽管概念编辑与其他事实编辑任务存在一定的共性,但我们发现现有的评估方法在实例关联变化的细粒度分析上仍有不足。此外,由于概念定义文本的长度,逐字逐句的比较难以准确捕捉语义变化。因此,我们创建了两项针对概念编辑的专属评估指标,以更精确地衡量编辑效果。
实例变化率(Instance Change):用于量化编辑后概念实例从属关系的变化情况。具体而言,我们通过大语言模型的推理能力设计了一种特定的提示模板:“【实例】是否属于【概念名称】类别”。并结合了少样本学习方法,增强了大语言模型在这一任务上的理解能力,并确保推理的稳定性和一致性。该指标为实例层面的模型编辑评估提供了新的视角,有助于揭示概念知识编辑对实例分类能力的影响,为改进和优化编辑技术提供了有力支持。这一指标的数学形式可表示为:
其中定义为:当实例属于编辑后概念时取值为1;当时取值为0。指标通过比较编辑前后实例从属于概念的判断结果,反映模型对实例级别概念关系的对齐效果。
概念一致性(Concept Consistency):主要用于评估编辑后生成的概念定义与目标定义在语义上的相对一致性。通过对编辑前后定义文本的语义相似度进行量化,该指标能够判断编辑操作是否保持了概念的核心语义,同时衡量编辑对模型整体知识结构的影响。该指标的计算方法通过对比生成的概念定义与目标定义以及原始定义的语义一致性进行评估,采用如下评分体系:
其中,生成文本(即编辑后的概念定义)与目标定义以及原始定义进行比较,评分标准如下:1 表示生成的概念定义与目标定义高度相似,语义一致性较强;-1 表示生成的定义与原始定义更为相似,语义变化较小;0 表示两者之间的语义相似度较低。在自动评估中,我们采用 GPT-4 API 作为评估模型,其在语义判断方面与人类偏好高度一致。
五、实验
实验结果显示了不同编辑方法在大语言模型概念知识对齐任务中的表现,具体分析如下:
-
可靠性:首先需要指出的是,所有在较大语言模型上测试的方法都表现出了较高的可靠性,表明它们在概念级别定义修改中的潜力。特别是微调方法对于规模较大的模型能够进行有效的知识更新。
-
泛化性:较大的模型在编辑后展现了比小模型更强的泛化能力。PROMPT方法在泛化性上表现尤为突出,模型能够准确理解概念的含义,并在输入前缀被重新表述时,依然能有效执行编辑任务。
-
局部性:MEMIT方法在编辑过程中对“外部邻近项”产生了最小的影响。换句话说,MEMIT在定位和修改必要的参数时展现了较高的精确性,能够专注于目标概念的编辑,而不对模型中其他无关的知识领域产生不必要的干扰。
-
实例变化影响:ROME方法在实例级别的变化上展示了最明显的效果,尤其是在LLaMA模型中,约三分之一的实例-类别关系发生了变化。这种现象突出了概念定义的修改如何影响实例级别的知识结构,表明概念级别的调整会在实例层面产生直接影响。
-
概念一致性:FT微调方法表现出色,生成的定义文本在 366 个样本中更接近目标定义,仅 71 个样本保留了原始定义的语义,展现出较强的语义调整能力和稳定性。PROMPT 虽然效果略逊于 FT,但凭借较低的实施成本表现出了良好的编辑能力。
除了主要实验结果的分析说明,我们还针对概念知识编辑实验中的一些发现进行细节说明。
1)概念一致性指标作为衡量生成定义语义相似性的工具,能够更有效地反映概念编辑的最终效果,尤其是在可靠性已达到较高得分的情况下,它能够进一步验证编辑后的知识是否与原始概念保持一致。
2)在概念知识对齐任务中,概念的树状结构对编辑效果的影响是多维的,既体现在超类的层级差异,也体现在概念的层次结构,但这种影响更多的表现在对跨超类的模式中。
3)生成的句子在编辑结果上展现了不同程度的成功与失败。在概念编辑任务中,最终目标是让模型生成的句子与目标句子完全一致。然而,在实际应用中,我们会遇到多种情况,反映出模型在执行编辑指令时的不同程度的成功和失败。
六、总结
我们提出了一种概念知识编辑任务,并创建了一个新的基准测试集ConceptEdit和相应的评估指标。对FT、ROME、MEMIT和PROMPT等方法的实验表明,最近的知识编辑方法在扭曲大模型的概念级定义方面具有很高的可靠性,但在概念特定度量方面表现有限。因此需要更强大的技术和对大模型中概念的更深入理解,以进一步推进研究。
七、如何系统学习掌握AI大模型?
AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。
学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。
这里给大家精心整理了一份
全面的AI大模型学习资源
,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享
!
1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
4. 2024行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
5. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码
,免费领取【保证100%免费
】