前言
进入2023年以来,以ChatGPT为代表的大模型喧嚣引发了AI的新一轮炒作热潮,堪比当年的加密货币。不同的是,以微软、NVIDIA、AWS、Google等为代表的云与芯片大厂纷纷实质性入局大模型,为大模型AI注入持续的生命力。因此ChatGPT可类比于2000年的互联网“泡沫”,而至于是否成为“泡沫”,还有待于进一步观察。
市场咨询公司WIKIBON发表了一系列文章,阐述了对于大模型对于AI和云产业的影响。WIKIBON认为,大模型AI带给市场的影响是有选择的,也就是并非所有厂商都能受益于这一轮大模型AI的炒作泡沫,例如云数据库厂商Snowflake也在炒作AI且营收勉强达标,但由于客户降低了云消费而受到股价的重创。
那么,大模型AI的热炒中,都有哪些云与AI的新趋势呢?看看WIKIBON是如何观察的。
NVIDIA:超大GPU与全新工业标准服务器
两年前,WIKION就预测NVIDIA将要占领数据中心市场,让数据中心运行的速度快10倍,成本降为十分之一。而黄仁勋的策略是利用NVIDIA在AI架构方面的强大优势,重构本地数据中心、公有云和边缘计算。这一策略包括了端到端的清晰愿景:强大的芯片设计能力,集成了内存、处理器、I/O和网络的新ARM架构,以及极具竞争力的软件消费模式。
还记得NVIDIA对于ARM的收购尝试么?虽然没有成功,但NVIDIA与ARM的深度合作仍然产生了对数据中心芯片市场极具冲击力的成果。简单说,NVIDIA意欲挑战Intel的通用数据中心市场垄断地位。而WIKIBON也十分看好NVIDIA的这一挑战,且不仅是GPU还包括了成千上万的其它芯片,包括网络、智能网卡和全栈能力等。
时间来到了2023年5月30日,NVIDIA的市值历史性突破了万亿美元,远远将Intel甩在了后面,这要感谢ChatGPT——让数据中心在一夜之间向AI计算“漂移”。NVIDIA发布了极具竞争力的价值主张:面向x86计算的企业预算将向加速计算迁移。今天NVIDIA的市值几乎是Intel的9倍之多,而ChatGPT在其中扮演了极为重要的催化剂角色。
在Computex 2023上,NVIDIA发布了几个极具里程碑意义的产品:配备了Grace Hooper的大内存超级计算机DGX GH200,将多达256块NVIDIA H100 GPU整合为一块数据中心大小的超级GPU,可提供144TB共享内存和1 exaflop性能,比单个NVIDIA DGX A100 320GB系统高出近500倍;NVIDIA还在建造AI超级计算机NVIDIA Helios,将四个GH200互连,可将多达1024块NVIDIA H100 GPU整合起来。GH200和Helios完美解决了大模型AI的训练需求,可将大模型AI扩散到更多企业和场景中。
除了更大的超级GPU外,NVIDIA还发布了加速服务器的模块化参考架构NVIDIA MGX,可供服务器厂商生产1U、2U、4U(风冷或液冷)服务器,支持NVIDIA全线GPU产品以及Grace、GH200 Grace Hopper和x86等CPU,NVIDIA Bluefield-3 DPU、ConnextX-7网卡等端到端的生态。
简单理解,MGX是对Intel x86服务器模块化参考架构的全面挑战,是更为适配ARM和NVIDIA GPU的服务器设计,开发商采用MGX,可将开发成本削减四分之三,并将开发时间缩短三分之二至仅6个月,可更好地适配HPC、数据科学、大型语言模型、边缘计算、图形和视频、企业AI以及设计与模拟等任务,AI模型训练和5G等多种任务可以在一台机器上处理,而且可以轻松地升级到未来多代硬件,MGX还可以轻松集成到云和企业数据中心。
AI芯片之争远未结束
大模型AI的训练需要超大的GPU和全新的集成电路。除了NVIDIA之外,其它供应商也在纷纷布局AI芯片,AMD和IBM都在开发自己的芯片。Broadcom在竞争商业芯片的市场,围绕智能网卡以及与Marvell共同竞争通信连接芯片。Apple、Tesla和Meta也在各自构建自己的半导体能力,来自中国的阿里、腾讯、华为等也在试图获得硅芯片独立性。
WIKIBON认为NVIDIA在AI领域的领导优势来自GPU技术和创新的CUDA软件,NVIDIA也会持续向自己的产品组合中增加更多的神经网络,而Apple和Tesla也向神经网络领域进行了重大投资,Apple在消费计算领域有着垄断性优势、Tesla则侧重在自动驾驶领域的推理计算。而AWS、微软、谷歌、阿里等全都在开发自己的AI产品和芯片。当然,这些科技大厂的自研芯片并不对外销售,而只是用于内部提升自己的竞争力。
值得一提的是亚马逊对Annapurna的收购,让亚马逊具备了设计基于Arm架构芯片的能力。对于亚马逊来说,完全可以走上与NVIDIA类似的道路,自行设计自己的芯片产品系列并对外销售,再收购AI创业公司来增强产品组合能力。亚马逊公司已经具备了与NVIDIA竞争的潜在能力与可能,但可能正如Andy Jassy所言,“经验没有压缩算法”,如果亚马逊公司想成为一家芯片公司,还有很长的路要走。
淘金企业级AI市场
随着ChatGPT的成功,由OpenAI与微软合作开发的大语言模型,已经被成功应用于一系列概念验证性场景中,同时也显示了对于改进企业流程的潜在影响。对于企业来说,AI能够自动化工作任务、提升效率、写代码和减少错误,这些都能为企业带来显著的成本节约。通过WIKIBON对企业技术花费的分析,企业对于AI的投资正显著上升,同时降低了在其它技术领域的花费以平衡对于AI的强化投资。
在混合多云领域,Red Hat与Dell在不断加强相互的合作,VMware的未来在不断演进,其他混合/跨云玩家包括Cloudflare、Equinix、HPE、IBM、Oracle等,都在不同程度受到大模型AI的冲击。
总结而言:大模型AI对于整个云与AI产业来说,将产生深远而持久的影响。尽管当前大模型AI、生成式AI和AI生成内容等对于用户的影响还十分有限,但大模型AI所代表的通用人工智能方向将持久存在。随着企业与消费者对于通用人工智能需求的逐步上升,大模型AI将再次革新云计算产业,对通用工业标准服务器和云基础设施的通用化带来全新的变革。
如何系统的去学习大模型LLM ?
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料
包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
四、AI大模型商业化落地方案
阶段1:AI大模型时代的基础理解
- 目标:了解AI大模型的基本概念、发展历程和核心原理。
- 内容:
- L1.1 人工智能简述与大模型起源
- L1.2 大模型与通用人工智能
- L1.3 GPT模型的发展历程
- L1.4 模型工程
- L1.4.1 知识大模型
- L1.4.2 生产大模型
- L1.4.3 模型工程方法论
- L1.4.4 模型工程实践
- L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
- 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
- 内容:
- L2.1 API接口
- L2.1.1 OpenAI API接口
- L2.1.2 Python接口接入
- L2.1.3 BOT工具类框架
- L2.1.4 代码示例
- L2.2 Prompt框架
- L2.2.1 什么是Prompt
- L2.2.2 Prompt框架应用现状
- L2.2.3 基于GPTAS的Prompt框架
- L2.2.4 Prompt框架与Thought
- L2.2.5 Prompt框架与提示词
- L2.3 流水线工程
- L2.3.1 流水线工程的概念
- L2.3.2 流水线工程的优点
- L2.3.3 流水线工程的应用
- L2.4 总结与展望
阶段3:AI大模型应用架构实践
- 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
- 内容:
- L3.1 Agent模型框架
- L3.1.1 Agent模型框架的设计理念
- L3.1.2 Agent模型框架的核心组件
- L3.1.3 Agent模型框架的实现细节
- L3.2 MetaGPT
- L3.2.1 MetaGPT的基本概念
- L3.2.2 MetaGPT的工作原理
- L3.2.3 MetaGPT的应用场景
- L3.3 ChatGLM
- L3.3.1 ChatGLM的特点
- L3.3.2 ChatGLM的开发环境
- L3.3.3 ChatGLM的使用示例
- L3.4 LLAMA
- L3.4.1 LLAMA的特点
- L3.4.2 LLAMA的开发环境
- L3.4.3 LLAMA的使用示例
- L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
- 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
- 内容:
- L4.1 模型私有化部署概述
- L4.2 模型私有化部署的关键技术
- L4.3 模型私有化部署的实施步骤
- L4.4 模型私有化部署的应用场景
学习计划:
- 阶段1:1-2个月,建立AI大模型的基础知识体系。
- 阶段2:2-3个月,专注于API应用开发能力的提升。
- 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
- 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓