把ChatGPT塞进副驾驶!清华、中科院、MIT联合提出Co-Pilot人机交互框架

fc99e56d0b80d2acd71ba3e2c79862d9.gif

©作者 | LRS

来源 | 新智元

作为本年度人工智能领域最重要的突破之一,大语言模型相关研究始终是各大相关领域的关注焦点。

近日,来自清华大学、中国科学院、MIT的科研人员对于大语言模型在人机交互领域中的应用进行了研究,设计了一种名为Co-Pilot的人机交互框架,使用提示引导ChatGPT(gpt3.5)在考虑人主观意图的同时完成简单的自动驾驶任务。

bb852e5fa2ecf2919ce7e68e4a13e60b.png

论文标题:

ChatGPT as Your Vehicle Co-Pilot: An Initial Attempt

论文链接:

https://www.researchgate.net/publication/374800815_ChatGPT_as_Your_Vehicle_Co-Pilot_An_Initial_Attempt

该研究作为最早一批使用原生语言大模型直接介入自动驾驶任务的尝试,揭示了大语言模型在自动驾驶领域进一步深入应用的可能性,也为后续相关研究指明了方向 [1]。

ba5318bc1729566984bcbeabfb38cc46.png

研究背景:为什么使用大语言模型?

人车交互作为智能汽车发展的重要功能之一,对降低司机驾驶负担、提升乘客出行体验有很大帮助,相关功能也成为了消费者在选择时的重要标准。

尽管现有人机交互系统已经可以实现语音识别、指令执行等功能,但大多数情况下系统仅能根据既定指令的训练在有限范围内给出回答或响应,存在一定的局限性。

相比之下,大语言模型在此类能力上具有更好的表现:

1. 可以理解人的意图:大语言模型具有推理能力,其可以从文字中理解说话者的真正意图,并给出相应的回应;

2. 拥有常识:得益于大量的训练数据中包含的知识,大预言模型具有一定的常识,并掌握许多特定领域的基础知识与能力;

3. 对于不同任务的高度适应性:通过调整提示词,大语言模型对于不同任务具有很好的适应性,可快速适配不同种类的任务,极大提升了应用与落地的效率。

基于此,大语言模型为解决人机共驾问题提供了一种新的思路。

为了探索大语言模型在自动驾驶人机交互领域的应用,研究人员提出了「Co-Pilot」架构,用于实现乘客、大语言模型以及车辆之间的交互。

为了验证方案的可行性,研究人员设计了两个不同种类的任务对其进行测试,实验效果达到了预期。

4a9e9141e2a0f9f658df842ead968b1b.png

Co-Pilot:架构与核心

Co-Pilot架构如下图所示:

6b99115b4a15b7cb7a7e006da582c11b.png

Co-Pilot主体机构包含了以下模块:

1. 编码器:将必要的信息组成提示,通过专用API发送至大语言模型。

2. LLM:大语言模型,本工作使用ChatGPT(GPT3.5-turbo-0301)。

3. 解码器:将自然语言回应解析为指令或数据,用于车辆的交互与控制。

4. 保险机制:考虑到大语言模型作为概率模型的本质,现阶段难以杜绝其在回答中出错,故预留该保险机制防止存在明显错误的指令影响车辆运行。

5. 记忆机制:保存Co-Pilot完成任务所必须的数据及其他信息,作为输入的重要组成部分,可在工作过程中被实时更新。

Co-Pilot主要拥有两种工作流程:

1. 实现流程:Co-pilot依据不同任务完成一次工作周期的流程。

2. 调优流程:车辆专家依据不同任务调整记忆机制的前置优化流程。

记忆机制

本文按照人类认知心理学对大语言模型内部的知识储存进行模拟[2],提出了记忆机制用来划分自动驾驶场景中可能涉及到的信息,旨在全面提升Co-Pilot信息利用效率。

2c695b2814cd2623c4ace96fd616b432.png

专家主导的黑箱优化

该方法利用黑箱优化中在低维空间进行无梯度优化的思想,利用专家的主观标注来评估任务完成效果,从而更新记忆中的内容来增强提示词,使得LLM进行少样本学习。

107063e278193da55a313195ae08b9f5.png

dfe724e1b42d77a9fa1e26c20ed3609d.png

仿真实验

为了验证Co-Pilot架构的可靠性,本文设计了两个任务,在以MATLAB/Simulink为基础的仿真平台中开展。

实验一:轨迹跟随控制器选择

在该实验中,假设有一辆自动控制的汽车在预设路径上行驶,研究人员给定Co-Pilot当前车辆状态、路段情况等信息,要求其选择最符合当前乘客意图(如保证速度、紧随轨迹、体验舒适)的运动控制器。

运动控制器为已有预设模块,分别为NMPC控制器、Stanley + Preview控制器、PID控制器。

 10b42290d2b6ad0017e960a444058342.png

▲ 赛道总览

2995fcbc257ffff926d0caa4f13847fc.png

▲ 实验一的Co-Pilot具体结构

在调优环节中,研究人员分别对语义记忆与情景记忆进行了更新,其中语义记忆仅能提供对控制器的种类(A1)或定性描述(A2),而情景记忆可以提供对控制器在过去相似场景下的具体表现(A3)。

赛道被分为五个区段,研究人员根据Co-Pilot是否在各区段选出了最符合当前乘客意图的控制器进行打分(每个区段最优1分,次优0.5分,最差0分,赛道总分最高为5分),分析不同记忆对于Co-Pilot表现的影响,研究人员在「精确跟踪」与「保持稳定」两种意图下分别测试,测试结果显示,A1仅取得3分,Co-Pilot在所有区段均选择了NMPC控制器。

由于此时提供的信息有限,其只能根据训练中积攒的常识「NMPC的控制效果很好」做出判断。A2取得了7.5分,而A3取得了8.5分,证明情景记忆在相似任务中对Co-Pilot的推理最有帮助,使其可结合人类意图给出合理的反应。

接着,研究人员使用了调优后的A3提示模式开展了更复杂的实验。在此实验中,五个区段的人类意图不再保持一致且引入了更口语化表达的新意图「刺激」。

实验结果如下图所示,Co-Pilot在每个区段都能选出最符合乘客意图的控制器(由于控制器在切换时受到上一区段的车辆状态影响,导致被选控制器的效果与预期可能存在细微差异)。

8fd6d895e29ac812d16b8c7d7408fd55.png

实验二:双移线避障轨迹规划

在本实验中,研究人员将重点转移到规划类任务,向Co-Pilot描述当前路况,并要求其给出未来10s内的路径。

 fbc13cfdcaa7e0a2207ac588c0232683.png

 8e42e6e2f2d268c904d5e3692820a55b.png

在调优环节中,研究人员更加侧重对于程序记忆的组织与优化,语义记忆与情景记忆中包含的信息基本不存在差异。在此的前提下,不同提示带来的显著结果差异更加值得深入探究。

 5c1877ac95a67e73650e8e42e2a11e4b.png

▲ 四种提示的区别以及十次测试的平均得分情况(打分依据:合理性满分5分、完成度满分3分、正确性满分2分)

 1abacd16d31d2f274520d86c4ec9d57d.png

▲ 四种提示下的代表轨迹

在使用B4提示的前提下,进一步引入不同种类的乘客意图,得到的代表性轨迹如下,可以看出在给出正确避让轨迹的基础上,Co-Pilot可以进一步调整轨迹使其符合乘客意图。

 5c296312fe2ce68846e56521bc7f258b.png

▲ 不同乘客意图的代表轨迹,均符合乘客意图

963d3e8435c21bacb71655bbe132664d.png

结果讨论

实验中我们可以注意到,提示中不同记忆的组合,对于LLM的表现有着显著影响。

1. LLM可根据常识以及记忆中包含的信息进行推理,在提供的信息不足以实现合理推断时,LLM可根据其训练中积累的经验做出决策;

3. 提示中的程序记忆在任务本身的描述上有时并不存在本质区别,但却对LLM的表现产生了很大影响。

这些现象引出了后续可能值得研究的更多问题:类似交通等复杂场景应该如何高效描述以发挥LLM的优势?LLM内部实现推理/完成任务的机制究竟如何?这些问题与大模型乃至人工智能的可解释性、安全性等重要问题息息相关。

45166913e5eabfe4b1e0f1dd856df549.png

未来展望与挑战

Co-Pilot是一种创新的尝试,它将LLM应用于人机混合智能[3]。LLM大大提高了人机通信的效率,使人类和机器更好地理解彼此。

人类专家对Co-Pilot进行调优的过程可以被视为系统的自适应学习。这使得深入的人机合作成为可能,并且在测试和调整人工智能系统方面具有巨大潜力。

df38e92766a9f5fdce69a893b6c6bd12.png

▲ LLM与现有平行学习架构[4]相结合,可进一步提升机器学习的效率

另一方面,正如本文实验中展示的,大语言模型通过海量数据训练得到的常识能在其工作中发挥重要作用。

后续在此基础上,多模态混合大模型(如视觉+语言模态)能够进一步打通「感知-规划-执行」的流程,使得此类大模型可胜任自动驾驶、机器人等需要与现实世界交互的复杂任务[5]。

当然,研究过程中涌现出的许多潜在挑战也值得关注:例如,怎样进一步提升LLM的性能?如何保证LLM表现得一致性、稳定性?在面对更复杂的动态场景时,如何保证LLM正确完成任务?

2d481e13574492ca3f3d66ca81a36896.png

总结

本工作提出了一种将大语言模型直接用于人机共驾任务的Co-Pilot架构,并设计对应实验初步证明了架构的可靠性以及大语言模型在自动驾驶类任务中的可适用性,讨论了相关领域研究的潜在机遇及挑战。

该项工作已于近日发表于IEEE Transactions on Intelligent Vehicles,来自清华大学深圳国际研究生院的王诗漪以及来自清华大学自动化系的朱宇轩为本文共同第一作者,通讯作者为清华大学自动化系李力教授。其他合著者为清华大学李志恒副教授,中科院自动化研究所王雨桐助理研究员,以及麻省理工学院贺正冰高级研究员。

outside_default.png

参考文献

outside_default.png

[1] S. Wang, Y. Zhu, Z. Li, Y. Wang, L. Li, Zhengbing He, "ChatGPT as your vehicle Co-Pilot: An initial attempt," IEEE Transactions on Intelligent Vehicles, https://ieeexplore.ieee.org/document/10286969/ 

[2] T. Sumers, S. Yao, K. Narasimhan, T. L. Griffiths, “Cognitive Architectures for Language Agents.” arXiv, Sep. 05, 2023. doi: 10.48550/arXiv.2309.02427. 

[3] L. Li, Y. Lin, Y. Wang, F.-Y. Wang, "Simulation driven AI: From artificial to actual and vice versa," IEEE Intelligent Systems, vol. 38, no. 1, pp. 3-8, 2023. 

[4] L. Li, Y.-L. Lin, N.-N. Zheng, F.-Y. Wang, "Parallel learning: A perspective and a framework," IEEE/CAA Journal of Automatica Sinica, vol. 4, no. 3, pp. 389-395, 2017. 

[5] D. Fu, X. Li, L. Wen, M. Dou, P. Cai, B. Shi, Y. Qiao, “Drive Like a Human: Rethinking Autonomous Driving with Large Language Models,” arXiv, Jul. 14, 2023,doi: 10.48550/arXiv.2307.07162.

更多阅读

2f194f81962e0ac1f6144ac5d361c840.png

f223b3e58ee281745a6929943199116f.png

7abfb19925f0630afa20fa19d2250078.png

3fa4337069cf3126b24ac325d71039f3.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

f2393eb00c5f5f35de08909af88b0f84.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

89da0f7775cf036bde83125e2153e318.jpeg

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值