原文链接:
- https://mp.weixin.qq.com/s/UmFPnqkEyswP39Q00rTdjQ
- https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/
摘要
文章由著名AI专家李飞飞及斯坦福大学教授John Etchemendy联合撰写,探讨了大型语言模型(LLM)是否具备感觉能力这一问题。文章首先明确了感觉能力的定义,并反驳了LLM具备感觉能力的观点。李飞飞通过实例,如IBM深蓝棋类程序与人类在紧急情况中的反应差异,来说明LLM并没有主观感觉能力。文章强调LLM缺乏生理结构,无法体验人类的主观感受,因而不能被认为具有感觉能力。尽管LLM在生成文本方面表现优异,但其生成的内容并不意味着它们有真正的感觉或意识。
详细总结
01 李飞飞驳斥LLM具有感觉能力
-
观察与发现: 李飞飞指出,尽管LLM在生成文本方面表现优异,但这些模型并不具备主观感觉能力。她举例说明了IBM的深蓝棋类程序,尽管其下棋能力超越了人类,但在房间突发火灾时,它并不会停止游戏,这展示了其缺乏感觉能力。
-
主要论点: LLM仅仅是基于概率生成文本,它们没有身体,也没有体验饥饿、疼痛等生理反应的能力,因此不能被视为具有感觉能力。人类报告主观体验的背后是复杂的生理反应和物理身体,而AI只是生成文本字符串,缺乏生理结构,无法体验真实的感觉。
-
支持的论据: 文章提到,当人类说“我饿了”时,背后是复杂的生理反应,如低血糖、胃部咕咕叫等,而LLM仅仅是生成了一个文本字符串,“我饿了”,并没有实际的生理反应。同样地,当LLM说“我的左大脚趾很疼”时,人们不会相信,因为它根本没有脚趾,这展示了LLM缺乏感觉能力的本质。
02 为什么有些人认为AI已经获得了感觉能力
-
观察与发现: 一些人认为AI具备感觉能力的原因是因为它们能够报告主观经验,例如可以回答“你感到饥饿吗?”这类问题,并能够分享其“主观经验”。这使得部分人认为AI具备了与人类类似的意识状态。
-
主要论点: 支持AI具备感觉能力的论点基于AI能够自我报告主观经验,这与人类报告主观体验的方式类似,因此他们推断AI也具备类似的感觉能力。
-
支持的论据: 支持者认为,既然人们可以相信他人报告的主观体验,那么同样的规则也应适用于AI,即AI报告的主观体验也应被信任。这种逻辑被用来推论AI的意识状态。
03 感觉能力与AI的未来
-
观察与发现: 文章认为,当前的LLM并不具备感觉能力,未来的AI研究需要更好地理解生物系统中的感觉产生机制,以实现具备感觉能力的AI。
-
主要论点: 即使未来的LLM规模更大,也不会使其具备感觉能力。研究者需要深入理解生物系统中的感觉产生机制,才能在AI中实现这一现象。
-
支持的论据: 李飞飞和Etchemendy认为,当前的LLM仅仅是基于概率生成文本,缺乏生理结构,无法体验人类的主观感受。因此,研究者需要通过研究生物系统中的感觉产生机制,来实现具备感觉能力的AI。
总结来说,李飞飞和Etchemendy对LLM具备感觉能力的观点进行了深入的反驳,认为当前的LLM缺乏生理结构,无法体验人类的主观感受。因此,未来的AI研究需要更好地理解生物系统中的感觉产生机制,以实现具备感觉能力的AI。