1. KN
《Knowledge Neurons in Pretrained Transformers》_ACL 2022
- 作者&机构:Damai Dai & Peking University | Microsoft Research
- 论文地址:https://aclanthology.org/2022.acl-long.581/
- 代码地址:https://github.com/Hunter-DDM/knowledge-neurons
- 概述:本文提出了Knowledge Neurons(知识神经元)的概念,初步研究了factual knowledge是如何存储在预训练Transformer模型中。具体来说,本文检查了BERT的填充任务。即给定一个关系事实,本文提出了一种knowledge attribution(知识归因)方法来识别表达该事实的神经元。本文发现Knowledge Neurons的激活与其相应的事实表达呈正相关。最后,本文试图利用知识神经元来编辑(如更新和删除)特定的事实知识,而不进行微调。
- 局限&展望:
- 没有关注Knowledge Neurons(知识神经元)之间的相互作用;
- 为了方便评估,只关注了factual knowledge,没有关注其他类型的知识;
- 没有探究知识神经元在多语言预训练模型中的工作机制;