本文是LLM系列文章,针对《GreedLlama: Performance of Financial Value-Aligned Large Language Models in Moral Reasoning》的翻译。
摘要
本文通过“GreedLama”的案例研究,研究了将大型语言模型(LLM)与财务优化相结合的伦理意义,该模型经过微调,以优先考虑经济效益结果。通过将GreedLama在道德推理任务中的表现与基础Llama2模型进行比较,我们的结果突显了一个令人担忧的趋势:GreedLama表现出对利润的明显偏好,而不是道德考虑,在低和高道德模糊的情况下,以比基础模型低得多的速度做出道德上适当的决策。在低模糊性的情况下,GreedLama的道德决策率降至54.4%,而基础模型的这一比例为86.9%,而在高模糊性的环境中,这一比例降至47.4%,而基本模型的这项比例为65.1%。这些发现强调了LLM中一维价值一致性的风险,强调了将更广泛的道德价值观纳入人工智能开发的必要性,以确保决策不仅仅是由财务激励驱动的。该研究呼吁对LLM部署采取平衡的方法,倡导在商业应用模型中纳入伦理考虑,特别是在缺乏监管的情况下。