本文是LLM系列文章,针对《Your Finetuned Large Language Model is Already a Powerful Out-of-distribution Detector》的翻译。
您的微调大型语言模型已经是一个强大的分布外检测器
摘要
我们重新审视了预训练的大型语言模型(LLM)与其微调变体之间的似然比,作为分布外(OOD)检测的标准。这种标准背后的直觉是,预训练的LLM由于其大量的训练数据而具有关于OOD数据的先验知识,一旦与分布内数据进行了微调,LLM就有足够的知识来区分它们的差异。利用LLM的强大功能,我们首次证明似然比可以作为一种有效的OOD检测器。此外,我们应用所提出的基于LLM的似然比来检测问答(QA)系统中的OOD问题,这可用于提高专业LLM对一般问题的性能。鉴于当代神经网络框架内的损失函数可以很容易地获得可能性,因此在实践中实现这种方法很简单。由于预训练的LLM及其各种微调模型都是可用的,因此我们提出的标准可以毫不费力地用于OOD检测,而不需要进一步的训练。我们对多种设置进行了全面评估,包括远OOD、近OOD、垃圾邮件检测和QA场景,以证明该方法的有效性。