在这个AI飞速演进的时代,当传统巨头挥舞着数百万美元的超算资源时,总有一些小团队用极致精简的策略创造出惊人奇迹。2025年初,一则消息席卷各大论坛和科技博客:由李飞飞带队的S1团队,仅用6美元成本,就训练出了一款性能接近OpenAI o1‑preview级别的AI模型,而这一切只依靠一台普通笔记本在推理阶段神奇的“多思考”技术加持。本文将带您走进这个充满传奇色彩的低成本AI实验,看清背后那些颠覆性的新思路与方法。
🌍 AI新纪元:低成本竟能撼动巨头的天下?
在很多人看来,强大的AI模型必须依赖海量数据和巨额算力——OpenAI、Anthropic 等巨头每一次的模型升级都伴随着数千万美元的烧钱操作。然而,S1团队用6美元、16张H100 GPU、26分钟的训练时间,以及仅取自56K数据中精选而来的1K高质量样本,就创造出了接近世界顶级水平的推理模型。这一实验无疑给“数据越多越好”的金科玉律敲响了警钟,也预示着未来AI的发展正在发生根本性的转变。
我们的实验对象正是那篇发布在arXiv上的论文《s1: Simple test‑time scaling》,该论文详细介绍了如何通过“超低数据训练”和“推理时间控制”两大策略,实现对AI推理能力的极致优化。S1团队在论文中提出,只需在推理时额外加点“思考”时间(用直接写入指令“Wait”来迫使模型延长推理过程),模型就能