本文是LLM系列文章,针对《Should We Fear Large Language Models》的翻译。
摘要
在快速发展的大型语言模型 (LLM) 领域,迫切需要彻底分析其功能和风险。我们调查的核心是两个新元素。首先,它是 LLM 中单词关系的统计模式与 Martin Heidegger 的“ready-to-hand”和“present-athand”概念之间的创新相似之处,它们概括了人类在与世界互动时采用的功利主义和科学高度。这种比较为将 LLM 定位为语言知识学院的数字对应物奠定了基础,阐明了它们模拟人类推理某些方面的能力。其次,对人类推理进行结构分析,通过海德格尔的真理概念来看待“揭开”这一基本原则使我们能够绘制出推理系统的输入和输出,并将推理分为四个不同的类别。描绘了各自的认知能力,使我们能够将 LLM 置于更广泛的人类推理模式中,从而阐明它们的优势和固有局限性。我们的研究结果表明,虽然 LLM 具有直接解释推理和伪理性推理的能力,但由于目前缺乏许多类似的 AI 模型,例如判断力,它们在真正的理性推理方面存在不足,并且没有创造性的推理能力。还评估了 LLM 与其他 AI 技术增强时的潜力和风险。结果表明,尽管 LLM 已经熟练掌握了一些推理能力,但达到或超过人类智力能力的愿望仍未实现。这项研究不仅丰富了我们对 LLM 的理解,还推动了关于 AI 的潜力及其界限的讨论ÿ