大模型时代结束?大佬齐预测:AI模型或需先缩小规模,才能再次扩大规模

「小模型周」过去了 ,小模型的最新战场才刚刚开辟。

上周GPT-4o mini和Mistral NeMo二连发,「麻雀虽小,五脏俱全」的小模型成为业界大佬密切关注的新方向。

这么说来,难道大模型要失宠了? Scaling Law要失效了?

前OpenAI和特斯拉AI研究员Andrej Karpathy刚刚入局AI教育,「K老师」最近发表推文指导行业迷津,揭秘科技巨头纷纷转向小模型研发的背后新趋势:AI大模型的竞争即将逆转。

他预判,未来的模型将会更小,但仍然会变得更智能。

人工智能巨头公司和一些新晋独角兽,最近都发布了与其他同行相比更紧凑、更强大、更实惠的人工智能模型,最新的例子是OpenAI的GPT-4o mini。

Karpathy预测这一趋势将持续下去。他写道,「我敢打赌,我们会看到很多能够有效可靠思考的模型,而且体积非常小。」

小模型:站在巨人的肩膀上

在LLM发展的初期阶段,吞吐更多数据,把模型往大了做是必然的趋势。这主要基于以下几个原因:

首先,数据驱动的需求。

生活在一个数据爆炸的时代,大量丰富和多样化的数据需要更强大的模型来处理和理解。

大模型具备容纳和处理海量数据的能力,通过大规模的数据训练,能够挖掘出深层次的模式和规律。

其次,计算能力的提升。

硬件技术的不断进步,GPU等高性能计算设备的发展,为大模型的训练提供了强大的算力支持。使得训练大型、复杂的模型成为可能。

再者,追求更高的性能和精度。

大模型通常能够在语言理解、生成、图像识别等多个领域展现出卓越的性能,懂的越多,生成出来的结果也就越准确。

最后,泛化能力更强。

大模型能够更好地处理未曾见过的新问题和新任务,能够基于之前学到的知识进行合理的推测和回答,具有更强的泛化能力。

再加上AI领域竞争激烈,各研究机构和巨头都致力于开发更大更强的模型,展示技术实力和领先地位,卷模型大小自然成了LLM的发展大方向。

Karpathy也将当前最强大模型的规模归因于训练数据的复杂性,并补充说大语言模型在记忆方面表现出色,超越了人类的记忆能力。

类比一下,期末周如果你要接受闭卷考试,考试要求根据前几个单词背诵书本上的某个段落。

这就是当今大模型的预训练目标。Karpathy表示,现在的大模型就像是一个贪吃蛇,只想把所有能用的数据全部吞进肚子里。

它们不仅能背诵常见数字的SHA系列哈算法,还能记住所有领域大大小小的知识。

但是,这种学习方式就像是你为了考试,把整个图书馆和互联网上的内容通通都背下来。

不可否认能做到这种记忆能力的是天才,但是结果考试时只用到了其中的一页!

对于这种天才学生——LLM想要做得更好之所以困难,是因为在训练数据的过程中,思维演示与知识「纠缠」在一起。

而且,一方面从实际应用的角度来看,大模型在部署和运行时面临着高昂的成本和资源消耗,包括计算资源、存储资源以及能源消耗等。

小模型更易于在各种设备和场景中进行部署,满足使用便利性和低功耗的要求。

另一方面,从技术成熟的角度考虑,当通过大模型充分探索和理解了问题的本质和规律后,可以将这些知识和模式提炼并应用于小模型的设计和优化中。

使得小模型在保持大模型同等性能甚至更优性能的前提下,降低规模和成本。

虽然大模型发展遇到了瓶颈,小模型逐渐成为新趋势,但是Karpathy强调,大模型仍然是需要的,即使它们没有得到有效的训练,但是小模型正是从大模型中浓缩而来。

Karpathy预计,每个模型都会不断改进,为下一个模型生成训练数据,直到出现「完美的训练集」。

即使是像GPT-2这样,拥有15亿个参数的已经out模型,当你用这个完美的训练集来训练GPT-2时,它可能会变成一个按今天标准来看非常强大且智能的模型。

这个用完美的训练集训练过的GPT-2可能在例如大规模多任务语言理解(MMLU)测试中的分数会稍低一些,MMLU测试涵盖57项任务,包括初等数学、美国历史、计算机科学、法律等,用以评测大模型基本的知识覆盖范围和理解能力。

但未来更智能的人工智能模型并不走量取胜,它可以更可靠地检索信息并验证事实。

正如一个学霸做开卷考试,虽然不是所有的知识都烂熟于心,但是能够精准地定位到正确答案。

据报道,OpenAI的Strawberry项目就着重在解决这个问题。

「虚胖」大模型的「瘦身」

===

正如Karpathy所说,经过海量数据训练出来的超大模型(如GPT-4),大部分其实是用来记住大量的无关紧要细节的,也就是死记硬背资料。

这与模型预训练的目的有关,在预训练阶段,模型被要求尽可能准确的复述接下来的内容,这相当于背课文,背的越准得分越高。

虽然,模型能学会里面反复出现的知识,但是,数据资料有时也会出现错误和偏见,模型还要先全部记住再进行微调。

Karpathy相信如果有更高质量的训练数据集,完全可以训练出一个规模更小,能力更强,更有推理能力的模型。

可以在超大模型的帮助下,自动生成,清洗出质量更高的训练数据集。

类似GPT-4o mini,就是用GPT-4清洗出来的数据训练的。

先把模型做大,然后在此基础上「瘦身」,这可能是一种模型发展的新趋势。

做个生动的比喻就像当前的大模型存在数据集过多虚胖的问题,经过数据清洗和大量训练,摇身一变一身精瘦肌肉的小模型。

这个过程就像是一个阶梯式的进化,每一代模型都会帮助生成下一代的训练数据,直到我们最终得到一个「完美的训练集」。

OpenAI首席执行官Sam Altman也发表了类似言论,早在2023年4月就宣布大型AI模型的「时代结束」。

并且,数据质量是AI训练的关键成功因素也越来越成为共识,无论是真实数据还是合成数据。

奥特曼认为,关键问题是人工智能系统如何从更少的数据中学到更多的东西。

微软研究人员在开发Phi模型时也做出了相同的判断,Hugging Face AI研究人员也同意对于高质量数据集的追求,并发布了高质量的训练数据集。

这意味着一味扩张不再是科技巨头们唯一的技术目标,即使是小型的高质量模型也可以受益于更多、更多样化、更高质量的数据。

回到更小、更高效的模型可以被视为下一个整合阶段的目标,OpenAI的模型发布就清晰地表明未来的发展方向。

评论区:正确的、中肯的、一阵见血的

Karpathy还提到了特斯拉在自动驾驶网络上的类似做法。

特斯拉有一个叫「离线追踪器」的东西,通过运行先前的较弱模型,生成更干净的训练数据。

一听到特斯拉技术被cue走在时代前列,马斯克迅速赶往评论区:

评论区的网友对于Karpathy的远见卓识也纷纷表示,臣附议!

对于未来的通用人工智能来说,更小、更高效的人工智能模型可能会重新定义人工智能中的「智能」,挑战「越大越好」的假设。

《Python机器学习》作者Sebastian Raschka认为,这就像是知识蒸馏,从27B的大模型蒸馏出Gemma-2这样的小模型。

他也提醒我们,MMLU这种多选题测试,可以测试知识,但不能完全反映实际能力。

也有网友脑洞大开,如果小模型表现得好,那么术业有专攻,为什么不用更多的小模型来生成一个个回答呢?

召集10个AI助手,然后让最聪明的那个做最后的总结,简直是AI版的智囊团。

那么,AGI到底是一个全能大模型,还是来自许多小模型的协作呢?

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

在这里插入图片描述

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

在这里插入图片描述

  • 23
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值