- 博客(3)
- 收藏
- 关注
原创 数学大统一理论里程碑进展:几何朗兰兹猜想获证明,论文超800页
一个给定的黎曼曲面都有一个对应的对象,称为基本群(fundamental group),其跟踪的是环绕曲面的环线的不同形式。在经典的傅里叶分析中,对于两种不同的思考波图(比如声波)的方式,会使用一种名为傅立叶变换的过程来创造的它们之间的对应关系。举个例子,在 1990 年代时,一个相对较小的函数集的数论朗兰兹对应的证明就让 Andrew Wiles 和 Richard Taylor 证明了费马大定理 —— 这个问题曾是数学领域最著名的待证明问题之一,数学界已经为此努力了三个世纪。
2024-07-25 00:22:52
304
原创 击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了
基于 Scaling law,在 Meta 的训练预算下,当前的旗舰模型已是近似计算最优的规模,但 Meta 对较小模型进行的训练时间已经远超计算最优的时长。对 AI 社区来说,Llama 3.1 405B 最重要的意义是刷新了开源基础模型的能力上限,Meta 官方称,在一系列任务中,其性能可与最好的闭源模型相媲美。大多数 SFT 样本由合成数据生成。2、与以前的 Llama 模型相比,Meta 加强了预处理和预训练数据的 Curation pipelines,以及后训练数据的质量保证和过滤方法。
2024-07-25 00:20:45
559
原创 Llama成大模型顶流,扎克伯格掀论战:玩开源,时代变了
无论是他们对开发者的税收、他们施加的任意规则,还是他们阻止的所有产品创新,显而易见,如果我们能够构建产品的最佳版本,并且竞争对手无法限制我们构建的内容,Meta 和许多其他公司将能够为人们提供更好的服务。我们必须牢记,这些模型是通过互联网上已有的信息训练的,所以在考虑危害时,起点应该是模型是否能比从 Google 或其他搜索结果快速获取的信息造成更多的危害。现在,你可以使用最先进的 Llama 模型,继续用自己的数据训练它们,然后将它们蒸馏成最适合你需求的模型规模 —— 无需我们或任何其他人看到你的数据。
2024-07-25 00:17:31
750
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人