本文是LLM系列文章,针对《Exploring Automated Distractor Generation for Math Multiple-choice Questions via Large Language Models》的翻译。
摘要
多项选择题(MCQ)在几乎所有级别的教育中都无处不在,因为它们易于管理、评分,并且是评估和实践中可靠的格式。MCQ最重要的方面之一是干扰因素,即旨在针对真实学生常见错误或误解的不正确选项。迄今为止,对于教师和学习内容设计师来说,制作高质量的干扰物的任务在很大程度上仍然是一个劳动和时间密集型的过程,其可扩展性有限。在这项工作中,我们研究了数学MCQ领域的自动干扰物生成任务,并探索了从上下文学习到微调的各种基于大型语言模型(LLM)的方法。我们使用真实世界的数学MCQ数据集进行了广泛的实验,发现尽管LLM可以产生一些数学上有效的干扰因素,但它们不太擅长预测真实学生中的常见错误或误解。
1 引言
2 任务和方法
3 实验
4 结论和未来工作
在这篇论文中,我们探索了通过大型语言模型自动生成数学多项选择题的干扰源。我们在真实世界的数学MCQ数据集上进行了实验,发现与微调