本文是LLM系列的文章,针对《PMET: Precise Model Editing in a Transformer》的翻译。
摘要
模型编辑技术以相对较低的成本修改了大型语言模型中的一小部分知识,并取得了显著的成功。现有方法假设Transformer层(TL)隐藏状态是前馈网络(FFN)的键值存储器的值。他们通常优化TL隐藏状态来记忆目标知识,并使用它来更新LLM中FFN的权重。然而,TL隐藏状态的信息流来自三个部分:多头自注意(MHSA)、FFN和残差连接。现有的方法忽略了TL隐藏状态包含FFN不特别需要的信息这一事实。因此,模型编辑的性能降低。为了实现更精确的模型编辑,我们分析了MHSA和FFN的隐藏状态,发现MHSA编码某些通用知识提取模式。这意味着当引入新知识时,MHSA权重不需要更新。基于上述发现,我们引入了PMET,它同时优化了Transformer组件(TC,即MHSA和FFN)的隐藏状态,而只使用优化后的FFN的TC隐藏状态来精确更新FFN权重。我们的实验表明,PMET在COUNTERFACT和zsRE数据集上都表现出了最先进的性能。我们的消融实验证实了我们增强的有效性,进一步强化了MHSA编码某些一般知识提取模式的发现,并表明它存储了少量的事实知识。我们的代码可在https://github.com/xpq-tech/PMET.git.