吴恩达:四个步骤,让大模型变得更好

前段时间,生成式 AI 的竞争达到了新的高潮。

前有 OpenAI 抢先发布 GPT-4o,后有谷歌在 I/O 开发者大会上发布一系列生成式人工智能模型与产品。

自 2022 年 11 月 OpenAI 推出 ChatGPT**,至今已有 18 个月。学界、业界为了提升生成式 AI 模型的能力,做出了诸多努力。

著名人工智能学者、斯坦福大学教授吴恩达高度总结了提升生成式 AI 模型能力的方式,主要包括:1)提升模型的推理能力;2)扩展上下文窗口,并撰写一篇博客阐述了一套通用且高效的 prompt 策略。

在这里插入图片描述

我们对博客内容进行了不改变原意的编译、整理,以下是博客内容:

谷歌宣布将 Gemini Pro 1.5 的输入上下文窗口扩大一倍,从 100 万 token 扩展到 200 万 token;OpenAI 发布了 GPT-4o,它的生成速度是 GPT-4 Turbo 的 2 倍,而且便宜 50%,原生支持输入、生成多模态 token。这是 18 个月以来的最新进展。

自 2022 年 11 月 ChatGPT 推出以来,随着 GPT-4、Gemini 1.5 Pro、Claude 3 Opus 和 Llama 3-70B 的发布等重要里程碑的到来,许多模型提供商通过两个重要方式提高了自己的能力:

  • 提升模型的推理能力,使 LLM 能够思考复杂的概念并遵循复杂的指令;
  • 更长的输入上下文窗口。

GPT-4 和其他高级模型的推理能力使它们非常擅长解释带有详细说明的复杂 prompt。许多人习惯向 LLM 快速提出 1 - 2 句话的查询。相比之下,在构建应用程序时,我看到经验丰富的团队经常编写可能长达 1 - 2 页的 prompt(我的团队称其为「mega-prompt」),这些 prompt 提供复杂的指令来详细说明我们希望 LLM 如何执行一个任务。我仍然认为团队在编写详细指令方面做得不够好。有关中等长度 prompt 的示例,请查看 Claude 3 的系统 prompt,详细且为 Claude 应该如何执行任务提供了明确的指导。

在这里插入图片描述

这是一种与我们通常在 LLM 网络用户界面中使用的非常不同的 prompt 方式。在这种方式中,我们可能会快速进行查询,如果响应不满意,则通过与聊天机器人反复对话来表述清楚我们想要什么。

此外,输入上下文窗口长度的增加为开发人员的工具箱添加了另一种技术。GPT-3 激发了关于小样本上下文学习的大量研究。例如,如果您使用 LLM 进行文本分类,您可能会提供一些(例如 1 - 5 个)文本片段及其类别标签的样本,以便它可以泛化到其他文本。

GPT-4o 接受 128000 个输入 token,Claude 3 Opus 200000 个 token,Gemini 1.5 Pro 100 万个 token(200 万个 token 目前仅适用于预览版)。然而,随着输入上下文窗口变得越来越长,人们发现 LLM 并不局限于少数样本。通过多样本(many-shot)学习,开发人员可以在 prompt 中给出数十个甚至数百个样本,这比少样本(few-shot)学习效果更好。

在构建复杂的工作流时,我看到开发人员通过如下过程获得了良好的结果:

  1. 编写快速、简单的 prompt,看看效果如何。
  2. 根据输出不足的地方,迭代地充实 prompt。这通常会导致更长、更详细的 prompt,甚至可能是「mega-prompt」。
  3. 如果这仍然不够,请考虑少样本或多样本学习(如果适用),或者不太频繁地进行微调。
  4. 如果仍然不能产生您需要的结果,请将任务分解为子任务并应用智能体工作流。

我希望这个过程能够帮助大家更轻松地构建应用程序。如果您有兴趣更深入地研究 prompt 策略,我推荐 Medprompt 论文,其中列出了一组复杂的 prompt 策略,可以带来非常好的结果。

在这里插入图片描述

Medprompt 论文,链接:https://arxiv.org/pdf/2311.16452

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

  • 15
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值