道德诚信语料库:道德对话系统的基准
Abstract
内容警告:本文中的一些示例可能令人反感或不安。
在开放域对话环境中,对话代理越来越接近人类的能力;然而,这些模型可能反映出不敏感、有害或完全不连贯的观点,这些观点会侵蚀用户对系统道德完整性的信任。道德偏差很难缓解,因为道德判断不是普遍的,而且可能存在同时适用于某一情况的多个相互竞争的判断。在这项工作中,我们引入了一种新的资源,不是为了权威地解决道德模糊,而是为了促进对对话系统话语中反映的直觉、价值观和道德判断的系统理解。道德诚信语料库就是这样一个资源,它利用99k个不同的经验法则(Rules of Thumb,RoT),捕捉了38k个即时回复对的道德假设。每个RoT都反映了一种特殊的道德信念,可以解释为什么聊天机器人的回复看起来可以接受或有问题。我们进一步用一组9个道德和社会属性以及属性分类的基准性能来组织RoT。最重要的是,我们表明,当前的神经语言模型可以自动生成新的RoT,合理地描述以前未见过的交互,但它们仍在某些场景中挣扎。我们的研究结果表明,MIC将成为理解和语言模型隐含道德假设的有用资源,并灵活地对会话主体的完整性进行基准测试。要下载数据,请参见https://github.com/GT-SALT/mic