An Evaluation System for Large Language Models based on Open-Ended Questions
https://ieeexplore.ieee.org/abstract/document/10605143
一个基于开放式问题的大语言模型评估系统
文章目录
摘要
我们设计了一个基于开放式问题的大语言模型评估系统。该系统使用开放式问题对大型语言模型(LLMs)进行了多维度评估,并以评估报告的形式呈现评估结果。目前,大语言模型的评估通常存在两个显著的限制:(1)评估方法往往是单一的,导致结果可信度较低。(2)大多数评估基于封闭式问题数据集,将生成性大型语言模型视为判别性模型,这未能充分反映这些模型的高输出灵活性特点。针对这两个限制,我们提出了一个基于开放式问题的LLMs评估系统。我们在适配的开源数据集上的实验证明了该系统的有效性。系统的代码已在 https://github.com/JerryMazeyu/GreatLibrarian 上发布。