今天凌晨,OpenAI 放出了一个全新模型——GPT-4.1
这个新模型有三个版本:
✅ GPT-4.1(满血)
✅ GPT-4.1 mini(常规)
✅ GPT-4.1 nano(速度最快)
三个版本,都支持最高 100 万 Token 的超大上下文窗口。
并且,在代码、指令跟随等核心能力上全面超越 GPT-4o 及 GPT-4o mini,并且知识截止日期也更新到了 2024 年 6 月。
详细能力:
GPT-4.1:在编码、指令遵循和长上下文理解方面表现最佳,适用于复杂任务。
GPT-4.1 mini:在多个基准测试中超越 GPT-4o,同时将延迟降低近一半,成本降低 83%。
GPT-4.1 nano:OpenAl 首个超小型模型,速度最快、成本最低,拥有 100 万 token 上下文窗口,适用于低延迟任务如分类和自动补全。
不过,比较扯的是:这 3 个模型目前只能通过 API 用,不会直接出现在 ChatGPT 里。
嗯……
我们继续聊聊 GPT-4.1.
编码能力
GPT-4.1 在各种编码任务上都比 GPT-4o 表现得更好,包括代理解决编码任务、前端编码、减少无关编辑、可靠地遵循差异格式、确保一致的工具使用等等。
在衡量真实世界软件工程技能的 SWE-bench Verified 测试中,GPT-4.1 完成了 54.6% 的任务,而 GPT-4o(2024-11-20)的完成率为 33.2%。
超长上下文
GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano 最多可以处理 100 万个上下文 Token。
之前的 GPT-4o 型号最多可以处理 128,000 个。
100 万个 Token 相当于整个 React 代码库的 8 个以上副本,GPT-4.1 系列模型非常适合处理大型代码库或大量长文档。
在OpenAI 内部大海捞针测试中,GPT-4.1、GPT-4.1 mini 和 GPT 4.1 nano 均能够在高达 1M 的上下文中检索所有位置的针。
Api 价格
最后,我们看一下 GPT-4.1 的 Api 价格
GPT‑4.1 整体比 GPT‑4o 便宜 26%,但输入、输出依然高达每百万 Token 2 美元和 8 美元。
GPT‑4.1 nano 是 OpenAI 迄今为止价格最低、速度最快的模型,输入、输出分别为 0.1 美元和 0.4 美元。
并且,对于重复使用相同上下文的查询,新模型提示词缓存折扣已从之前的 50%提高至 75%。
以上。