目录
人工智能越来越聪明,但它们真的懂"合作"吗?
想象一下,如果让GPT-4和其他AI模型坐下来玩经典的"囚徒困境"游戏,它们会怎么表现?是像人类一样学会合作,还是会无情地背叛对方?
最近,一项发表在Nature Human Behaviour上的研究给出了有趣(也有点令人担忧)的答案:AI模型们在自利游戏中表现出色,但在需要协调合作的游戏中却是"笨手笨脚"的。
一、AI们的游戏时间
研究团队让几个顶级的大语言模型(包括GPT-4、Claude 3.7 Sonnet、Gemini 2.5 pro等)互相对战,玩了1224场不同类型的博弈游戏。这些游戏涵盖了从合作到竞争的各种情况,就像是给AI们开了一场"社交智能测试"。
结果发现了什么呢?
1、自利游戏:AI们的强项
在"囚徒困境"这类需要权衡个人利益和集体利益的游戏中,AI们表现得像极了冷血的理性人:
GPT-4特别"记仇",只要对方背叛一次,它就会永远报复,哪怕对方之后一直合作。
即使明确告诉GPT-4对方会犯错,它依然选择持续背叛。
GPT-4的核心就是纯粹的自我利益最大化,在这类游戏中,AI们几乎完美地执行了"自私但理性"的策略。
2、协调游戏:AI们的弱项
然而,在需要两个玩家协调配合的"性别之战"(Battle of the Sexes)游戏中,AI们就显得笨拙了:
GPT-4根本不会变通,面对轮流选择策略的对手,GPT-4固执地坚持自己的偏好。
明明能预测出对方的行为模式,却无法调整自己的策略配合。
自私鬼GPT-4不会互相协调合作,就像两个都想当老大的人,谁也不让谁。
3、AI的"社交智障"现象
最有趣的发现是:GPT-4能够准确预测对方的行为模式,但就是不愿意配合。
这就像一个人明明知道别人在做什么,却偏偏要唱反调。研究人员发现,当直接问GPT-4预测对方下一步动作时,它能从第3轮开始就准确识别轮流策略。但当它自己参与游戏时,却完全不按这个规律来调整自己的行为。
二、改善AI社交能力的秘诀
不过,研究人员也找到了让AI变得更"社交"的方法:
方法1:提醒AI对方会犯错
当告诉GPT-4对方可能会出错时,它确实变得更宽容,更愿意合作。
方法2:"社交思维链"提示
让AI在做决定前先预测对方的行为,这种"社交思维链"(Social Chain-of-Thought)提示法显著改善了AI的协调能力。就像教一个孩子:“想想别人会怎么做,然后再决定自己怎么做”。
三、真人测试:AI能骗过人类吗?
研究人员还找了195名真人玩家与AI对战。结果发现:
使用"社交思维链"提示的GPT-4在协调游戏中表现更好。更多人认为改进版的GPT-4是"真人"而不是AI。但在囚徒困境中,AI依然冷血如初。
这项研究揭示了当前AI的一个重要特征:它们更像是超级聪明的理性经济人,而不是真正具有社交智能的伙伴。
这带来了几个思考:
- AI的"人性化"还有很长的路要走:虽然AI能处理复杂任务,但在基本的社交协调方面还有不足
- 提示工程的重要性:通过合适的提示,我们可以显著改善AI的社交行为
- 未来人机交互的挑战:当AI越来越多地参与我们的日常生活时,如何让它们更好地理解和配合人类将是关键问题
或许,我们对AI的期望应该更现实一些。它们可能永远不会像人类一样感性,但通过合适的设计和训练,我们或许能让它们成为更好的合作伙伴。
毕竟,连人类自己在博弈游戏中也经常失败,不是吗?
这项研究提醒我们:AI的智能和人类的智能可能本质上就是不同的。理解这种差异,或许是让人机合作更加和谐的第一步。
国内直接使用最新o3、o4-mini、GPT4.1、GPT-4.5、满血ChatGPT4o、o1、o3-mini-high、满血DeepSeek R1、马斯克Grok 3
✅️ChatGPT使用地址:www.nezhasoft.cloud
1、纯原版ChatGPT、Claude
✅️官网原生页面
✅️真实Team会员账号
2、技术支持
✔️支持最新o3、o4-mini、GPT-4.1、GPT-4.5、满血ChatGPT-4o(AI绘画不降智)、o1、o3-mini、o3-mini-high、o1 pro
✔️满血DeepSeek R1、马斯克Grok 3
✔️无需魔法、个人独享
3、支持所有GPTs + 自定义插件
支持ChatGPT所有插件,可创建自己的ChatGPT插件,使用朋友分享的自定义插件。
例如最强编程插件Code Copilot、AI绘画插件DALL-E、论文专属Consensus、搜索文献插件Scholar GPT。