AI产品经理应该怎么拥抱大模型时代

全球视角下的开源LLM生态
目前很明显中文圈和欧美圈已经有了明显的分化,由于数据集和目标语言的不同,两边各做各的了。日韩和东南亚语系暂时是没人管的孩子。

从应用角度来说,如果场景是中文,那么看那些不支持中文的基座LLM感觉已经没有太多意义。把非中文的基座LLM微调成支持中文的价值也在逐步降低。(例如Chinese-LLaMA和OpenBuddy。)

由于架构是普适的,所以全球生态下的模型结构目前是趋同演化的。暂时还没有看到可能导致“不同圈子中由于需求的差异性导致模型结构独立演化”的因素。

目前来看,炼一个ChatGPT-3.5-turbo的模型可能已经距离不远,但现有的开源方案由于数据集和定位的原因都不是普适所有语言的,在这方面还是有差距,但可能大家目前已经不在这块发力了。

全球已经在卷的维度:

训练量:已经很少见到低于1T token的方案了。
开源协议:最近的方案都对商业使用更友好。
更长的context window,这个似乎还在起步阶段。
国内中文场景的开源LLM生态
6月连续发布了几个中文语料上从0开始预训练的基座模型,可以说国内并没有在第一阶段大幅落后国外了。炼一个6B左右规模的基座模型是各个团队可以独立复现的,但可能是由于精力和资源问题,更大规模的模型、Chat对话微调的模型放出 这些方面还偏慢。

我猜测国内炼LLM的团队重心已经转到【尽快】迭代自己的baseline方案,以此为最高优先级,为此可以【暂时放弃更大的参数规模尝试】和【为了明显加速训练和牺牲效果】。这个思路我觉得没有问题,优先卷迭代速度很可能是最快的研发路径,目前人类对于LLM训练经验还远远没到最佳实践。大参数的模型等baseline更强一些之后再炼也没问题。

国内在卷的维度:

开源协议:几乎都是商业可用的。平均水平超过国际。
训练量:最近1个月发布的也都是1T token水平的。跟上了国际。
各种benchmark榜单:最近各个榜单频繁被更新。但这些benchmark本身的代表性就存疑,也容易作弊,看看就好。
内部迭代速度:目前怀疑国内在这方面更看重,国际的团队在这方面不清楚。
更长的context window:ChatGLM2-6b达到了32k,虽然效果有待验证,但应该实际可用长度也是明显超过国际开源的方案。
目前能够明显的看到国内的这些开源LLM团队正在快速调整自己的baseline方案,所以可以从这些团队结果的趋同改变上识别真正靠谱的trick。

应用方向探索
ChatGPT所代表的大语言模型应用方向从目前来看,应用方向可以分成三种

模型服务
以OpenAI为典型代表,孵化大模型后,开放接口,提供公共模型能力。

目前OpenAI的接口支持GPT3.0的能力调用,同时支持二次tuning。而在大规模的商业合作上,notion、office全家桶、bing都在推进当中。

2B垂直工具
以COPY AI,Jasper为例,主打生成内容,并且瞄准了有明确价值需求的领域。例如自动生成SEO文章、广告创意、ins文案等等。

这一类目前海外发展得较好,一方面受益于对SaaS付费的接受度,另一方面也是因为瞄准了明确的用户群——电商从业者。

事实上代码校验提示,会议纪要生成,专业文档写作等都可能是这个方向的扩展。但一方面要看fine-tuning效果如何,另一方面商业价值确实也不如电商领域高。

C端娱乐类
C端应该说是场景最匹配ChatGPT应用的方向了,毕竟用户的忍受度相当高,智障音箱都能忍,何况升级后的GPT。

但困难的在于两方面:

第一,要找到可供能力落地的C端场景,毕竟单纯聊天是没有价值的,附加了场景才产生价值。

第二,要找到商业模式突破成本线。按照GPT3.0的刊例价来算,要求这个产品每输出3700个字,就要从用户身上赚到1块钱(作为参考:目前国内头部小说网站起点的付费阅读是20000字/元)。

海外的C端娱乐应用我不太了解(之前用的账号过期了,最近懒得弄)。搜索了一下国内应用,最近社交分类Glow这个APP冲上了第7名,扩展往下看会发现主流的娱乐类Chat基本上是围绕二次元/宅群体进行的。

如果围绕这个用户群稍作扩展,在年轻/黏性/新事物尝试等维度的组合下,明星粉丝也是一个可能的方向。

但也不好说就锁死在这些群体上——你猜猜给一个独居的二大爷尝试ChatGPT他会喜欢吗?给一个流水线的工人尝试呢?毕竟孤独,一直是人类永恒的命题,谁也不知道下一个爆款来自哪里。

商业层层面思考

现在的互联网环境,收益已经是第一位的事情了,不管是外部投融资还是内部项目盘点,商业变现都是最核心的问题。

商业上的事情其实又可以拆成两个模块,战略上的,战术上的,依据公司的规模和团队结构不同,AI PM的话语权会有不同程度的衰减。

举例子说明一下。

作为产品经理的思考:
战略层的思考:
我要启动一个ChatGPT项目,用户群是什么,商业模式是什么,壁垒在哪里,演进的步骤是什么?

这些问题的产生在“决定项目做不做”,“接下来项目往哪走”的环节。假设对这方面有话语权,不管大还是小,那么都会是一件非常锻炼人的事情。这个环节中无非就是两种能力:知识获取以及知识的推理。

知识获取包括你过往的行业经验,业务经验,以及临时抱佛脚所调研的行业信息。这方面依赖的是知识的挖掘、辨别、结构化整理能力,特别是现在这个时代的信息环境,真的是屎山里找金。

知识的推理是对这些知识有选择地推导,从知识中得出商业答案。这个环节可以利用一些思维工具去结构化推导(例如商业画布),多推几次后,本身自己会沉淀下来一些商业分析的肌肉记忆,工具反而退居其次了。

战术层的思考:
产品做出来了,甚至免费运作一段时间了,那么接下来产品怎么定价?价格阶梯如何设置?个体消费者和企业消费者的价格会不同吗?渠道服务商的价格和直售的价格一样吗?我的成本线是多少,盈利线是多少?

只是围绕一个价格,就会延伸出一堆细碎繁杂的问题。更何况关联产生的产品方案,渠道政策,广告ROI等模块。

战术层的问题因其细碎和宽泛,会被拆成非常多不同的方向,每个方向其实都没那么复杂,只是需要一些敲门进去的方法论,剩下的就是一些实战经验。所以我们会看到,现在大厂招人,往往倾向在垂直细分方向找一个有相关经验的人,这样会节约上手时间和试错成本,例如会员产品经理。

技术层思考
这里的技术其实没那么技术。AI产品经理和传统产品经理最大的不同就在于,他所依赖的产品核心是AI技术,因此将商业、用户需求转化为算法需求是他的主要职责。

这里面我们所提出的问题,是会有技术层面的深浅不同的。举个例子,我们遇到了一个问题“需要Chatbot能够记住用户的偏好知识,例如他喜欢下雨天,喜欢达芬奇,喜欢黄金时代”,现在我们需要算法团队帮我们实现,那么可能有不同层次的提法:

chatbot要支持记忆用户输入的偏好信息,例如喜欢黄金时代,储存时间为永久,并且支持知识的互斥与整合(例如先说喜欢下雨天,后面又说讨厌下雨天)
需要chatbot支持记忆用户输入的偏好信息,并且这个能否不要用模型参数去学习,而是搭建一个独立的知识库,再通过模型另外调用?这样用户可以可视化地修正自己的偏好知识。
加装一个意图识别器,发现是用户偏好知识的时候转到知识库进行储存和整合,如果非偏好知识则正常走大模型结果。意图识别器这里可以用xxx技术,你看看这篇paper,是有相关实现经验的。

大家会发现三个层次在技术层面是由浅到深的。那么什么时候深什么时候浅取决于什么呢?

取决于产品的技术实力。有时候你的技术实力就决定了你深不了。没关系,其实到第三个层次并不是必须的,一般到第二个层次就够用了,甚至到不了第二层次,就在第一个层次上你把需求讲明白,也是能跑的下去。只是这样产品的权威性,你对需求的判断,ROI的平衡判断都会产生很大的问题。
取决于需求的目的,例如第一个层次的需求没有专门提及知识库,那这个时候用模型去学习记录也可以,用知识库也可以。但是第二个需求中就明确要求了基于知识库的实现方法,因为他需要用户可视化修改自己的偏好知识。(甚至有时候最后不一定是用知识库的方法,但没关系,提出你的idea,与算法团队深入讨论,多少都是一种启发)
取决于你和算法团队磨合出的边界。要找到你们之间最舒适的交织区域,一般而言是产品往技术多走几步,算法往业务多走几步,这样能发挥1+1>2的结果。
当然,不管是需求提到哪种技术层次,都需要铭记一个基本原则,说明白你这个需求的背景、目的、价值。例如第二个例子中,其实是要额外说明用户可视化修正偏好知识到底能带来什么,值不值得做,这些业务价值会与技术实现的成本互相PK,取得平衡。

AI产品经理在技术层能做的事情有点像在做fine-tuning,在模型不那么适配场景,或者场景延伸出新能力诉求的时候,发现他,分析他,并与算法团队深度讨论后方案后在成本和收益之间做平衡。

应用层思考
应用层的事情其实和技术层有点交织,因为大部分时候你上一个新的应用功能,背后多数是需要技术支撑的。

不过这里我们搞简单点,把有技术诉求的那部分剔除掉,只保留无技术依赖或低技术依赖的来讨论。

我举个大家习以为常,但效果巨大的例子:当我们做人脸验证,或者银行卡图像识别的时候,他一定会有一个虚拟框,要求你将脸或者银行卡摆放在固定位置。这个功能毫无技术要求,就是加一个透明浮层而已。但是他能极大提升采集图像的质量,从而提升算法效果。

在chatbot里面其实也可以类似的做法。例如ChatGPT有时候会崩溃,输出结果在一半的时候就中断。他的原理其实就是自然语言生成本质上是持续性在预测下一个字是什么,然后预测出一篇文章。那么当模型在还不应该结束的时候不小心预测出一个END字符的时候,AI就认为我可以在这里停止了。

解决方案有高大上的技术方案,我们这里可以土肥圆做个low一点的——加装一个按钮“你还没说完呢”,用户点击后,AI就会自动再次重跑一遍这个input,输出结果。这样顺便还能采集一下对于这种END崩溃的bad case数据。

增长层思考
只要你做的产品是给人用的,不管是2B还是2C,那么就离不开增长。

只是2B和2C的增长是两套完全不同的方法论。

2B其实更多应该被归到商业层,你需要做产品定价,做渠道政策,做客户成功,并打磨你整个销售链路,找到薄弱点优化他。在这个过程中你要清晰认识到2B与2C在付费决策上的显著不同,2B是多用户下关键决策人掌握公有资产进行付费判断,而2C是用户个体掌握私有资产进行付费资产。

不过教育行业这个市场会和2B有一点点相似,他是学生使用,家长付费,学校/机构影响,也是一个多用户下关键决策人的结构,不过掌握的是私有资产。

而2C就更不用说了,2C的增长产品是一个非常独立细分的行业。可以通过投放,SEO,新客进入,老客留存,社交裂变等等命题去做努力,反正核心就是拉更多的人赚更多的钱。

只是目前而言,我们在说ChatGPT,那么他大概还是一个新项目新产品。那么大概率初始不会配备相应的增长产品,AI产品也需要兼顾关注。

最后大家如果想做一些练习,可以找这个领域的一些C端应用试试看,例如glow,糖盒等(可能还有更多,欢迎私信指点我)。

但是我个人不建议拿各类市面上的chatbot或B端产品来尝试,前者发展到现在很成熟了,后者则很多时候需要面对B端特殊的场景,没有做过B端很难明白里面的细节。而glow、糖盒这类C端新起步的产品会是一个比较好的练手对象。

我这里就不罗列对这两个产品的分析或者产品建议了,我个人觉得站在局外做产品建议是很扯淡的事情。产品的魅力在于根据有限的资源和环境,选择局部最优解来推动demo慢慢成长。如果不在局内的话,很多建议和迭代我都倾向于不公开,否则局内人看起来会很蠢。

比如说觉得对话不智能,需要提升智能,建议接入GPT3.0。那么会不会这个产品的受众其实不那么需要智能,或者他们的需求无法与接入GPT3.0的费用平衡呢?这个需求有可能不是一个技术问题,而是一个商业问题。所以我觉得教张小龙做产品其实是个伪命题。

可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把全套AI技术和大模型入门资料、操作变现玩法都打包整理好,希望能够真正帮助到大家。

👉AI大模型学习路线汇总👈
大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)
在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉大模型视频和PDF合集👈
观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

  • 13
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
MAAS模型即服务(Model-as-a-Service)是指以云计算为基础,将人工智能模型作为一项服务提供给用户使用的模型服务形式。随着人工智能技术的快速发展和应用需求的增加,大模型时代已经到来。 在过去,人工智能任务通常需要大量的计算资源和时间来进行训练,而且需要专业知识来搭建和优化模型。然而,随着硬件的进步和算法的改进,如今已经可以训练出更大、更复杂的人工智能模型,这些模型在多个领域表现出色,但也需要更多的计算资源和存储空间来支持其使用。 MAAS模型即服务的出现可以将这些庞大的模型提供给用户,并以服务的形式供其使用。用户无需拥有庞大的计算资源和专业的知识,只需通过云端服务接口即可使用这些大模型。这种模型服务形式的好处在于用户能够快速、便捷地使用先进的人工智能技术,无需担心底层的运维和调优。 MAAS模型即服务还能够为用户提供更好的可扩展性和灵活性。用户可以根据实际需求选择不同规模及复杂度的人工智能模型,根据自身业务的发展和变化进行灵活调整。同时,模型服务提供者也可以根据用户的需求不断进行模型的更新和优化,以保证模型始终保持最佳性能。 总之,MAAS模型即服务的出现,标志着人工智能模型时代的到来。它为用户提供了更便捷、高效的方式来获取和使用庞大的人工智能模型,推动了人工智能技术的广泛应用和发展。我们有理由相信,随着技术的进一步创新和普及,人工智能模型将成为人们生活、工作中的重要助力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员辣条

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值