自2022年11月ChatGPT发布以来,人工智能初创公司获得了大量的资本和关注。截至2024年第二季度,全球风险投资资金的一半投向了人工智能和机器学习初创公司。
尽管人们的目光多集中在OpenAI等模型提供商和Perplexity、Cursor等原生AI公司上,但受人工智能影响的“传统”公司数量远超AI公司本身。
这些通过自主构建模型、使用闭源或开源模型、直接使用第三方AI工具的“AI长尾”公司(The Long Tail of AI),采用的AI策略有所不同,但成功的公司通常将AI与其核心业务相辅相成,借鉴同行的成功经验,并在AI技术持续发展中保持灵活性。
日常生活中很多现象遵循正态分布,比如智商、标准化考试成绩或群体的血压水平等。这种分布直观且易理解,大多数结果集中在“平均”值附近,离平均值越远的概率逐步下降。
然而,在风险投资领域并非由正态分布决定,而是由少数异常值决定大部分结果的幂律分布主导,依赖于少数成功的投资项目带来的巨大回报来实现基金的整体收益。
早在2008年,Union Square Ventures创始人Fred Wilson便指出:
“每一个成功的风险基金…都会有一个或多个项目产生了巨大的回报,甚至足以覆盖整个基金的损失,同时获得超额收益。”
2016年,时任a16z合伙人Benedict Evans也强调,在风投中“6%的投资带来了至少10倍的回报,而这些回报占据了风投总收益的60%。”
由于风险投资依赖“明星”项目,资本往往集中在被认为能带来超高回报的领域。这种现象也带来了风投中的“炒作幂律”。例如,1999年互联网泡沫时期,39%的风险投资流向了互联网公司。到了2024年,这样的高热度领域变成了人工智能。根据硅谷科技评论AI创投库(svtr.ai)自OpenAI在2022年11月发布ChatGPT以来,AI公司融资飙升,全球近一半的风投资金砸进AI领域。
-
从2024年全球每周AI融资事件平均在40起,比去年均值高出10起,其中仅有60%是首次融资,每周融资平均融资金额从去年不足5亿美元,上升到10亿美元之多。
-
2024年夏季的YCombinator加速器项目中,75%的初创公司(208个中的156个)致力于AI相关产品。
-
2024年第二季度,49%的风险资本流向了AI和机器学习初创公司,而2022年第二季度这一比例仅为29%。
-
2020年,AI、SaaS和金融科技公司早期的中位估值分别为2500万美元、2700万美元和2800万美元;而在2024年,这些估值上升到7000万美元、4600万美元和5000万美元。
-
OpenAI在2024年10月成功以1570亿美元估值融资,尽管其年收入预期为40亿美元且未实现盈利,这意味着估值相当于收入的39倍。
尽管AI原生初创公司获得了投资者的大量关注,但这并不能全面展示AI发展的全貌。实际上,大部分公司并非以AI为核心业务,但仍将受到AI技术进展的深远影响。回顾互联网泡沫时期,许多最大的赢家并非互联网公司,而是那些适应了电商趋势的传统公司。比如,成立于1962年的沃尔玛在2023年实现了730亿美元的电商收入,相比2017年增长了五倍。像沃尔玛这样的传统公司受益于互联网普及,形成了所谓的“互联网长尾”。
如今,一个新的“长尾”正在出现:AI长尾。AI长尾包括各个行业的非AI公司,如金融科技、SaaS、工业、医疗、电商、酒店、国防技术、媒体、时尚、物流和交通运输等,都会受到AI的影响。无论是使用现成的AI工具,还是将AI集成到内部工作流中,各行各业的公司都在使用或尝试使用AI。正如互联网对非互联网公司的深远影响一样,AI的影响也绝不会仅限于构建AI模型或产品的公司。
定义“AI长尾”公司
目前获得市场重点关注的AI公司主要分为两类:
-
模型公司:如OpenAI、Anthropic和Mistral,这些公司开发了专有或开源的大型语言模型(LLM),并将其提供给用户。
-
AI原生公司:如对话搜索引擎Perplexity和营销平台Jasper,AI模型是其产品不可或缺的一部分。
对于模型公司,模型本身就是产品;对于AI原生公司,产品依赖于AI模型才能正常运作。但大多数公司(如彭博、沃尔玛、Canva)并不属于这两类,正是本文讨论的“AI长尾”范畴,尽管目前这类公司是不太受人关注的“丑小鸭”,但因AI的发展而受到不同程度的影响,部分公司甚至有可能成为一飞冲天的“白天鹅”。
这种“长尾”现象带来了一些关键问题,比如:
-
AI技术进步将如何影响那些在ChatGPT之前便已存在的商业模式?
-
不同行业的员工,如咨询公司分析师或技术大厂软件工程师,目前如何使用AI?未来又将如何使用?
-
公司如何在AI市场中定位自己?是从零构建自有模型,还是使用外部开发的工具?
对于这些问题,不同公司答案各异。例如,费用管理平台Ramp和澳大利亚SaaS巨头Atlassian,将生成式AI应用于现有数据和工作流中。瑞典金融科技公司Klarna则通过AI提升内部运营效率,其AI客服在2024年已替代了700名全职客服人员。此外,不同规模的公司都在使用AI工具提升员工效率。2024年5月,普华永道(PwC)为10万多名员工提供了ChatGPT Enterprise的高级功能;同时,美国商会的调查显示,98%的小型企业使用了AI工具,体现了AI在有限资源的中小企业中起到“杠杆”作用。
今天,我们回顾互联网泡沫,可以识别出市场的赢家、输家以及一些决定性趋势(如云存储、电商、社交媒体),但AI尚不具备这种视角。尽管AI应用广泛,企业仍在探索其最佳用例,这也为咨询公司带来了机遇。2024年第三季度,埃森哲通过AI项目获得了年化36亿美元的预订收入,BCG则预计2024年其20%的收入将来自AI项目,2026年这一比例将增至40%。
根据对成本和资源的要求,我们将AI长尾公司分为四个层次:
-
构建独立模型:这种方式资源消耗最大,通常适用于拥有大量独特数据资源的公司,能带来独特见解,并拥有足够的人力和财力来从零训练新模型。
-
使用闭源模型:如OpenAI的GPT模型或Anthropic的Claude,这些模型在数十亿甚至数万亿参数上进行训练,能生成多领域高质量输出(如编程、客户服务),并能通过API轻松访问。
-
使用开源模型:如Mistral或Meta的Llama,Llama 3.1训练于4050亿参数。与闭源模型不同,开源模型为公司提供了更高的透明度和灵活性,可根据客户需求调整模型权重。
-
使用第三方AI工具:如ChatGPT,集成难度最低,客户只需付费即可使用,无需自行开发或调整模型。
这些层次是动态的,公司可能在多个层次中交叉使用生成式AI。通过研究不同行业公司具体的AI用例,我们可以更好地理解它们如何在业务中应用AI,这也为其他非AI原生公司提供了借鉴,以帮助其制定和优化自身的AI集成策略。
层级一:自主构建模型
对许多在AI领域活跃的公司来说,建立一个独立的AI模型是最耗资源的策略。这一策略最适合那些
-
资金充足且
-
拥有独特且有价值的专有数据集的公司
构建定制模型需要丰厚的资源,因为训练这样的模型成本高昂,例如GPT-4的训练费用约为1亿美元。此外,开发这种模型还需要高技能的人才和大量的数据集。
然而,对于那些资金雄厚且拥有大量专有数据的公司来说,专有模型具有以下优势:
-
可以生成比公共模型更详细、公司专属的内容;
-
公司可以完全控制模型及其权重;
-
相比于依赖封闭源模型,可能在推理计算上节省成本。
案例1:Bloomberg
Bloomberg是一家位于纽约的金融数据和媒体公司,年收入超120亿美元,旗下旗舰产品“Bloomberg Terminal”占总收入的三分之二。其AI团队多达350多人,每年发布多篇AI研究论文,显示了该公司在AI领域的长期投入。
2023年3月,Bloomberg推出了金融领域的特定语言模型BloombergGPT。这款50亿参数的模型使用了一个3450亿公共数据集和Bloomberg收集的40年金融文档组成的3630亿令牌数据集进行训练,训练成本估计在270万到1000万美元之间。然而,Bloomberg并未公开说明是否有任何功能依赖于BloombergGPT,暗示该模型可能更多是为外部使用而设计。
Bloomberg的模型虽为金融领域专门训练,但2023年10月Queen’s大学和JPMorgan的研究显示,在多个金融任务中,ChatGPT的表现优于BloombergGPT,可能是由于Bloomberg的数据集并不像外界所认为的那样稀有。
2024年初,Bloomberg在Bloomberg Terminal内推出了公司财报速览的AI生成功能,但并未披露使用的是哪种模型。此外,Bloomberg还在其法律、税务和政府业务中引入了生成式AI工具,用于增强摘要和搜索功能,这些工具可能也是基于Bloomberg的数据进行训练的自定义模型。
*案例2:[Replit]
Replit是一个专注于协作的基于浏览器的开发环境。其AI功能包括代码自动补全、聊天和自动调试,支持这些功能的AI模型来自自有模型、微调的开源模型和闭源模型(例如Anthropic和OpenAI的模型)。
Replit采取了一种灵活的AI策略,根据输出质量、速度和成本选择适合特定用例的“层级”AI模型。Replit在2024年推出了一个“自主配对编程助手”,这一功能基于自研的七亿参数模型。然而,一些早期用户反馈该产品的功能还不够完善,但对其未来的发展持乐观态度。
案例3:[Canva]
Canva是澳大利亚的在线设计平台,市值在2024年达490亿美元。2023年,Canva推出了Magic Studio,一款生成式AI设计工作室,依赖用户在平台上的创作内容训练其专有模型。用户可以选择加入Canva的创作者补偿计划,以便他们的内容可用于AI模型的训练。Magic Studio可以将文本提示转化为图像、视频和演示文稿设计,并允许用户对图像的静态部分进行调整。
2024年7月,Canva收购了Leonardo.Ai,以将其基础AI模型集成至Magic Studio之中,同时保持Leonardo的独立运营。
案例4:Walmart
Walmart自2018年起便开始构建面向客户的对话式AI工具,最初使用的是Google的BERT模型。到2024年,该公司已从闭源模型转向定制的内部模型,并在10月推出了一系列零售特定的大型语言模型Wallaby。Wallaby模型基于多年的Walmart数据进行训练,能够理解员工和客户的表达方式,并以更贴近Walmart核心价值的自然语调做出响应。
Walmart推出Wallaby模型的目标是“为每位购物者打造个性化主页,让在线购物体验如同走入为其量身定制的商店一样。”这种体验可能包括用户输入诸如“帮我筹划一场橄榄球观赛派对”或“新生儿需要哪些用品?”的查询,系统随即生成所需物品的清单,避免用户逐一搜索。
在内部,Walmart利用AI来构建客户支持聊天机器人,帮助员工快速查询店内商品的库存和位置。此外,Walmart还使用AI清理和更新其庞大的商品目录。大型语言模型(LLMs)处理了超过8.5亿条数据,Walmart CEO Doug McMillon表示,若无AI协助,要达到同样的工作量可能需要当前员工数的100倍。
此外,Walmart还在实体店推出了增强现实(AR)购物体验,并在诸如Roblox等平台上构建虚拟购物体验。尽管公司在自研模型上投入巨大,但在特定应用中,Walmart仍愿意使用第三方模型作为补充,以确保最佳效果。
层级二:使用闭源模型
除了自主构建AI模型,公司还可以通过API接入OpenAI或Anthropic等闭源AI模型,并在此基础上开发自有的应用解决方案。这类闭源模型(如OpenAI的GPT和Anthropic的Claude)具有多领域生成高质量输出的能力,非常适用于转录、客户服务、数据提取等通用任务。此外,这些模型通过API接入便捷,使它们成为企业应用AI的便捷切入点。为了与推理速度更快、成本更低的小型开源模型(如Llama 3 8b)竞争,闭源模型提供商也推出了缩小版模型,例如GPT-4o mini。
案例1:[Zapier]
Zapier是一家工作流自动化公司,支持7000多个应用的集成,如G-Suite、Slack、Notion和Mailchimp等,并帮助用户在多个应用间创建无代码的自动化工作流。Zapier通过AI增强其工具包,为用户提供更高效的自动化体验。部分Zapier的内部AI工作流基于OpenAI模型实现:
-
自动化会议转录与摘要:当录音文件上传到特定的Dropbox文件夹时,Zapier会自动使用OpenAI转录文件并生成摘要,最后将消息发送到Slack,这一流程为客户支持团队节省了大量时间。
-
文章摘要:内容团队使用AI生成的文章摘要来辅助其研究流程,通过Zapier Chrome扩展程序解析网页文本并调用OpenAI生成摘要。
-
自然语言工作流创建:Zapier的Copilot工具可以根据用户的自然语言提示创建工作流。例如,用户输入“当我在Webflow中有新的潜在客户时,在Hubspot中创建联系人并向销售团队发送Slack消息”,Copilot就会自动生成执行该任务的工作流。
Zapier还允许用户创建基于OpenAI的轻量级AI聊天机器人,并可以将其嵌入网页中。Zapier自身也使用内部AI生成新闻稿、撰写博客文章、同事反馈,并将公司术语转换成简洁语言。
案例2:Klarna
Klarna是一家市值67亿美元的瑞典金融科技公司,主要提供“先买后付”服务。2024年初,Klarna推出了一款OpenAI支持的AI助手,可处理多种客户服务请求,如退款、退货、支付问题、取消订单等。在上线第一个月,该助手就完成了230万次对话,相当于700名全职员工的工作量,还减少了25%的重复询问,将响应时间从11分钟缩短至2分钟。Klarna认为这一AI助手在2024年将为公司带来4000万美元的收益。
Klarna还扩展了AI助手的功能,将其用于产品搜索和推荐,用户可以通过对话式界面获取购物建议。此外,Klarna在内部推出了AI助手Kiki,截至2024年5月,85%的员工每天使用Kiki,平均每日回答超过2000个问题。
案例3:Ramp
Ramp是一家估值77亿美元的B2B金融科技公司,提供财务管理、账单支付、采购等一系列产品。Ramp在多个内部运营环节中集成了生成式AI,并拥有专门的应用AI团队。Ramp的CTO Karim Atiyeh表示,公司在多个领域进行了模型的微调,最终发现GPT-4o mini模型已能满足公司90%的需求。
Ramp通过GPT-4来微调开源模型,如Meta的Llama 2,用于处理公司专有的财务数据,以创建更具成本效益的定制模型。2023年7月,Ramp利用GPT-4和Claude对合同文档进行分析,自动提取重要数据并提醒客户关键日期。此外,Ramp还开发了UI导航功能,用户可通过文本提示在网站上完成特定任务,如更改企业信用卡品牌。
案例4:Atlassian
Atlassian是一家市值500亿美元的企业SaaS公司,提供Jira、Trello、Confluence等协作工具。2023年,Atlassian推出了结合OpenAI模型与自有模型的生成式AI功能“Atlassian Intelligence”。该功能包括Jira和Confluence的自然语言搜索、摘要等功能,其中Jira搜索功能使用了微调的OpenAI模型,通过将用户查询翻译成JQL实现更精准的搜索。
2024年10月,Atlassian正式发布其新AI助手Rovo,具有跨平台深度搜索能力,并支持生成和审核营销内容、整理反馈、清理Jira积压任务等无代码Agent功能。此外,Atlassian还通过收购Loom和Rewatch进一步增强了其AI功能,用于视频记录、会议转录和总结。
案例5:Canva
除了基于专有模型构建的Magic Studio外,Canva还在某些工具中利用闭源模型。例如,其OpenAI支持的写作编辑器能够根据用户上传的样本自动匹配语气。此外,Canva的第三方应用市场包含100多款AI应用,如DALL-E和Google的Imagen,提供图像生成、T恤设计和音乐生成等多样化的功能。这些应用使用的AI模型各不相同,结合了闭源、开源和自有模型。
层级三:使用开源模型
除了从零构建模型或使用闭源模型外,许多公司选择在[Mistral]、Meta的Llama以及Hugging Face等开源模型基础上开发自有工具。据Databricks的2024年报告,76%的LLM用户公司选择开源解决方案。这是因为开源模型具有更高的定制化和透明度、更强的数据隐私保障,以及更低的成本潜力。
从头构建模型耗时、昂贵,通常只有在模型需要完全依赖于公司独有数据的情况下才有必要。此外,像OpenAI的GPT-4o这类闭源模型的使用成本迅速攀升。Llama、Mistral等开源模型提供了涵盖外语到编程等多主题的大规模数据集,可以根据公司需求进行调整。总体而言,对于大多数公司而言,调整现有的开源模型比从头构建新模型更具成本效益。
案例1:VMware
VMware是虚拟化软件提供商,2023年被博通以690亿美元收购。公司推出了Cloud Foundation和vSphere Foundation两大产品,专注于私有云解决方案和IT基础架构优化。2023年11月,VMware观察到在开源模型上创建更安全的生成式AI代码助手的机会。通过与Hugging Face合作,VMware基于StarCoder开源代码库LLM开发了名为SafeCoder的本地化解决方案。StarCoder包含155亿参数,训练数据来自80种编程语言的开源项目,规避了商业版权风险。
此外,客户可以使用专有代码对StarCoder进行微调,使其获得特定领域知识。VMware也在此基础上对StarCoder模型进行了自有项目的微调,以帮助支持内部开发需求。
案例2:Mathpresso
Mathpresso是一家韩国教育科技公司,以其AI教育应用QANDA闻名,用户可以上传数学题截图以获得解答。2023年11月,为推出性能超越现有闭源模型的数学专用LLM,Mathpresso基于其QANDA积累的数学解题数据与Meta的Llama 2开源模型共同训练了MathGPT。
Mathpresso联合创始人Jake Yongjae Lee指出,商用LLM如ChatGPT缺乏教育领域的复杂定制能力,而Llama的开源特性提供了灵活性,使MathGPT能在不同教育场景下保持高准确度。
2024年1月,MathGPT在MATH(高中数学)和GSM8K(小学数学)等基准测试中表现优异,成为13亿参数以下模型中的领先者。Mathpresso计划继续优化MathGPT的性能,并最终将其集成到QANDA应用中。
案例3:Brave
Brave是一款注重隐私的浏览器,在所有网页上阻止追踪、Cookie和第三方广告,并为付费用户提供防火墙和VPN服务。2023年8月,Brave推出了浏览器内的AI助手Leo,支持网页摘要、内容生成、翻译和文本分析等功能。为最大程度保护用户隐私,Brave选择在开源模型的基础上构建AI助手。最初,Leo基于Meta的Llama 2模型,2024年1月改用Mistral的Mixtral 8x7B开源模型作为默认模型。
Brave在隐私保护方面采取了严格措施,例如使用反向代理隐藏用户IP地址,不存储会话数据,聊天结束后立即删除对话内容。同时,Brave允许用户选择使用Anthropic的Claude模型,虽然该选择会保留对话30天,但不会将用户查询用于训练Anthropic的AI。
案例4:Replit
除了其定制代码补全模型,Replit在2024年4月还微调了Hugging Face的7亿参数开源模型,推出自动修复用户代码错误的Code Repair AI代理。付费用户可在Replit的微调模型与其他闭源模型之间切换。此举展示了公司可以通过结合开源、闭源及自定义模型来满足不同客户的需求。
层级四:使用第三方AI工具
在AI应用的最后一个层级中,企业选择直接购买并使用由其他公司开发的AI工具。这一层级无需内部开发,公司只需识别并利用第三方开发的工具。相较于自建AI工具或模型,使用外部工具具有以下优势:
-
节省成本:购买特定工具的成本远低于培训或微调模型所需的资源。
-
提升效率:如果员工需要一个通用的研究工具或头脑风暴助手,外部工具能极大提升生产力,尤其在缺乏技术专长的情况下表现优异。
案例1:波士顿咨询公司(BCG)
波士顿咨询公司(BCG)是全球领先的咨询公司之一,也是硅谷科技评论最近评选的[全球AI创业者的十大摇篮之一],也是唯二上榜的咨询公司。
随着客户对AI集成的需求增多,BCG开始在内部广泛使用ChatGPT。2023年,BCG在全球范围内对758名咨询顾问进行了实验,测试使用ChatGPT完成“创意产品创新”和“业务问题解决”等任务的效果。结果显示,90%的顾问在创意任务中表现提升,平均提升率达40%。
2024年,BCG再次研究生成式AI在技能缺乏任务中的帮助效果。这次实验中,使用ChatGPT的顾问在Python编程、预测建模和统计验证等任务中表现明显提升。例如,不具备编程技能的顾问在代码任务中的表现从37%跃升至86%。实验结果使BCG决定向全体员工推广ChatGPT Enterprise,以提高咨询团队的工作效率。
案例2:Dollar Shave Club
Dollar Shave Club是一家直销剃须用品供应商。为了提高客户服务效率,该公司选择了Zendesk推出的Answer Bot来自动化客服流程。Answer Bot经过1200万次客户互动训练,可以迅速回答常见问题,如账户暂停或取消。虽然无法处理复杂投诉,但Answer Bot的自动化功能使得客服代表能够专注于更详细的问题。截至2024年3月,Answer Bot每月处理4,500张服务工单,占总工单量的10%。
案例3:律师事务所
大型语言模型(LLMs)在法律领域是一个小众但有前景市场。根据硅谷科技评论创投库(svtr.ai),在法律服务垂直赛道,全球有近38家AI初创公司获得知名机构投资。
在法律领域,合同的复杂性使得合同审查流程费时费力。考虑到法律合同在措辞和条款上的一致性,生成式AI工具可帮助加速合同审查。
许多律师事务所选择使用Kira,这是一款专为法律文档开发的AI审查工具,帮助他们将合同审查时间缩短达60%。Kira内置的智能分析系统可识别1000多种常见条款和数据点,适用于并购尽职调查、贷款协议、合规审查等场景,显著提高了法律文件的处理效率。
长尾公司的AI策略
在AI应用的不同层级中,许多公司正通过购买现成的AI工具来提高效率,而非构建自有模型。BCG等公司已经证明,在适当的应用场景下,这类工具在支持创造性和提升生产力方面表现出色。随着AI技术的快速进步,这些长尾公司的AI应用模式呈现出以下三个主要趋势:
1. AI作为业务辅助工具
许多公司通过AI辅助其现有业务,而不是试图用AI取代原有核心。Replit在推出AI代码助手之前已在开发者工具方面积累了多年经验,AI只是其产品改进的下一步。同样,Brave浏览器的成功建立在其隐私优先的基础上,AI助手Leo则进一步强化了这一承诺。而像Walmart这样的零售巨头,虽然利用AI提升效率,但其核心业务仍依赖于低价和宽松的退货政策。
总之,AI可以帮助公司优化产品和服务,但公司需要在现有强项的基础上进行AI扩展,而不是试图完全重新定义业务。
2. 借鉴同行的AI策略
在AI快速发展的市场中,公司通过借鉴同行的策略来迅速获得竞争优势。例如,BCG的研究显示,ChatGPT在创意和编程任务中带来了显著的表现提升。这一发现可能激励其他咨询公司,如麦肯锡和贝恩,也采用类似的生成式AI工具,以确保在行业内保持竞争力。
这种策略并不仅限于同一行业。Brave和VMware在产品方面差异明显,但它们都基于数据隐私构建了AI功能,前者用于浏览器,后者用于代码助手。这样的“跨行业借鉴”策略使公司能从不同领域的成功案例中汲取经验,找到符合自身特点的AI应用方式。
3. 在AI策略中保持灵活性
公司的AI应用层级并非固定不变,它们可以根据需求在不同层级间灵活切换。随着AI技术的快速迭代和AI工具的低切换成本,盲目投入巨大资源构建自有模型可能并不划算。与其一开始投入过多资源,不如从现有模型入手,根据实际需求逐步调整和优化。例如,Ramp CTO表示,GPT-4o mini足以满足公司90%的需求,显示出小型模型在大多数场景下的性价比优势。
Baseten的CEO Tuhin Srivastava建议,“先从已知有效的工具开始,逐步替换和优化。”他观察到许多公司过高估计了构建自有模型的收益,而低估了所需的资源和成本。他的建议强调,聪明的工程团队可以从开源或商用模型起步,之后再根据实际需要切换到更精确的开源模型,以实现更高效的性能和更低的成本。
保持灵活的AI策略可以使公司在AI技术不断进步的过程中更具适应性,迅速抓住新技术带来的机会。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。