本文是LLM系列文章,针对《How do Large Language Models Navigate Conflicts between Honesty and Helpfulness?》的翻译。
大型语言模型如何处理诚实和乐于助人之间的冲突?
摘要
在日常沟通中,人们经常接近真相——例如,四舍五入或省略细节——以最大限度地帮助听众。大型语言模型(LLM)是如何处理这种微妙的权衡的?为了解决这个问题,我们使用旨在表征人类行为的心理模型和实验来分析LLM。我们测试了一系列LLM,并探讨了人类偏好或推理时间推理的优化如何影响这些权衡。我们发现,从人类反馈中强化学习可以提高诚实和乐于助人的能力,而思维提示链使LLM倾向于帮助而非诚实。最后,GPT-4 Turbo演示了类人响应模式,包括对会话框架和听众决策上下文的敏感性。我们的研究结果揭示了LLM内部化的对话价值观,并表明即使是这些抽象价值观也可以在一定程度上受到零样本提示的引导。
1 引言
诚实和乐于助人是会话代理的两个关键需求,以确保安全和有用的现实世界部署。诚实或真实性是LLM长期关注的问题,因为它们的数据范围有限,容易产生幻觉。提高真实性的方法包括增加LLM对信息库的访问,并鼓励他们从这些来源检索和引用信息。同时,有用性被宽泛地定义为LLM满足用户查询的能力。大多数方法不是将这一概念形式化,而是通过从人类反馈中强化学习(