UNDERSTANDING YOUR AGENT: LEVERAGING LARGE LANGUAGE MODELS FOR BEHAVIOR EXPLANATION

828 篇文章 3 订阅

已下架不支持订阅

69 篇文章 0 订阅
本文提出了一种方法,使用大型语言模型仅根据状态和动作观察生成智能代理行为的自然语言解释,独立于底层模型。在多智能体搜索环境中,这种方法被证明能有效解释各种行为。用户研究表明,生成的解释与人类专家的解释相当,并允许有益的交互。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《UNDERSTANDING YOUR AGENT: LEVERAGING LARGE LANGUAGE MODELS FOR BEHAVIOR EXPLANATION》的翻译。

摘要

机器人等智能代理越来越多地部署在现实世界中对安全至关重要的环境中。至关重要的是,这些代理能够向人类同行解释其决策背后的原因;然而,它们的行为往往是由深度神经网络等无法解释的模型产生的。我们提出了一种仅基于对状态和动作的观察来生成对代理行为的自然语言解释的方法,从而使我们的方法独立于底层模型的表示。对于这样的模型,我们首先学习行为表示,然后使用它以最小的幻觉产生合理的解释,同时提供用户与预先训练的大型语言模型的交互。我们在多智能体搜索环境中评估了我们的方法,并证明了我们对执行各种行为的智能体的解释的有效性。通过用户研究和实证实验,我们表明,我们的方法产生的解释与人类领域专家产生的解释一样有用,同时实现了有益的互动,如澄清和反事实查询。

1 引言

2 相关工作

3 代理行为的语言解释

4 定量结果与分析

5 参与者研究与分析

6 结论和未来工作

在这项工作中,我们提出了一个模型不可知的框架,用于生成对代理行为的自然语言解释。通过构建行为表示,我们能够提示LLM对代理行为进行推理,从而产生合理和有用的解释,使用户能够进行交互并发出后续查询,并通过两项参与者研究和实证实验测量,将幻觉的数量降到最低。虽然我们认识到我们提出的方法有局限性,即它需要将代理的策略蒸馏成只适用于非密集输入的决策树,但我们认为这是可解释策略的一个很有前途的方向。这些限制可以通过更复杂的行为表示来克服,例如,可微分决策树或概念特征提取器,并且我们期望随着LLM变得更有能力,解释的质量会提高。

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值