今天,OpenAI宣布,其开发者API迎来了更强大的o1“推理” AI模型升级版——o1-pro。
据OpenAI介绍,o1-pro相比o1需要更多计算资源,来提供“更稳定、更优质的回答”。目前,该模型仅向部分开发者开放,要求至少在OpenAI API上消费过5美元。
同时,o1-pro的定价相当高昂,每百万输入Token(约75万个单词)收费150美元,每百万输出Token收费600美元。相比之下,输入价格是GPT-4.5的两倍,输出价格更是普通o1的10倍。此外,它的价格比OpenAI最便宜的GPT-4o-mini贵整整1万倍。
除了计算能力的提升,o1-pro其他规格与o1基本一致,包括20万Token的上下文窗口、10万Token的输出上限,以及截至2023年9月30日的知识更新。该模型同样支持图像输入、函数调用(可连接外部数据源)和结构化输出,使开发者能够生成符合特定格式的内容。
目前,o1-pro仅能通过全新的Responses API访问,主要面向AI代理——即那些能够自主执行任务的AI应用。而基于Chat Completions API构建的应用,暂时无法使用o1-pro。
尽管o1-pro价格不菲,OpenAI仍认为其更强的推理能力足以让开发者愿意买单。据TechCrunch报道,OpenAI发言人表示:“API版o1-pro是o1的升级版本,使用更多计算资源来‘深度思考’,从而在应对最复杂问题时提供更优质的答案。在收到众多开发者的请求后,我们很高兴能将o1-pro引入API,以提供更可靠的回答。”
不过,o1-pro早在去年12月就已在ChatGPT平台向ChatGPT Pro订阅用户开放,然而彼时用户反馈并不算惊艳。有人发现,该模型在解数独时表现欠佳,甚至会被简单的视觉错觉笑话难倒。然而,OpenAI去年底的一些内部基准测试显示,o1-pro在编程和数学问题上的表现仅比标准版o1略有提升,但回答的稳定性确实更高。
你怎么看这款模型?欢迎留言讨论!
【活动分享】2025全球机器学习技术大会(ML-Summit)将于4月18-19日在上海举办。大会共12大主题、50+海内外专家,聚焦下一代大模型技术和生态变革技术实践。详情参考官网:http://ml-summit.org/。