GPT Store,是否会成为下一个App Store?

经历了一场风波后,原本计划推出的GPT Store终于成功上线。OpenAI在北京时间1月11日推出了GPT Store,被广泛视为类似于苹果的"App Store",为人工智能应用生态系统迈出了重要一步。然而,OpenAI要想将GPT Store打造成苹果般的成功,还需要一些时间。尽管如此,GPT Store的推出对于国内大型模型的发展具有巨大的推动作用,正如百度创始人李彦宏所说,没有建立在基础模型之上的丰富AI原生应用生态系统,大型模型就很难有价值。

虽迟但到

本来计划在2023年12月,即OpenAI首届开发者大会结束后一个月推出的GPT Store,因为一场震惊全球科技圈的"宫斗"风波而推迟。但幸运的是,GPT Store虽然推迟了,但在2024年初成功上线。

根据官方介绍,GPT Store主要为付费版本的ChatGPT开放,包括ChatGPT Plus、Enterprise企业版和最新推出的Team付费版本。

与此同时,ChatGPT Team也于同一天发布。据了解,ChatGPT Team是OpenAI企业产品的较小版本,适用于企业内用户数量少于150人的情况,每人每月价格为25美元或30美元。

GPT Store类似于一个创新广场,汇集了用户为各种任务创建的ChatGPT定制版本,例如用于教孩子数学的聊天机器人、编程导师、读书指南等等。与App Store相似的是,GPT Store的页面上展示了最受欢迎和最热门的聊天机器人,用户还可以按照类别搜索他们感兴趣的应用程序。

ChatGPT定制版本被称为GPTs。在2023年11月的首届开发者大会上,除了备受瞩目的GPT-4 Turbo之外,OpenAI还发布了ChatGPT的定制功能,大大降低了应用开发者的门槛。即使是不懂编程的人,也可以通过对话方式构建自己专属的GPT,即GPTs。

GPTs的推出正是为了GPT Store的发展打下基础。在关于GPT Store发布的宣布中,OpenAI直截了当地表示:“自从发布GPTs两个月以来,用户已经创建了超过300万个定制的ChatGPT”。据了解,OpenAI已经批准了其中一部分应用进入GPT Store,用户可以自由下载使用。

OpenAI的首席执行官阿尔特曼曾提到,通过GPT Store,用户可以创建自己的GPT并将其上架至"GPT商店"以获取分成收入。目前,具体的分成计划尚未完全公布,OpenAI只表示将在今年第一季度开始与GPT开发者共享收入,并首先面向美国开发者展开合作。

复制苹果?

GPT Store的推出和OpenAI构建生态的野心引发了人们对于其是否能够复制苹果的成功的讨论。苹果的App Store被认为是建立生态的典范,为苹果带来了巨大的成功和收益。

根据苹果官方数据,App Store在2022年创下了1.1万亿美元的开发者营业与销售额,其中超过90%的收入归于开发者和企业。苹果的服务业务,包括App Store在内,在财务报告中占据重要的位置,为苹果带来了不可忽视的营收。

然而,将GPT Store与App Store进行直接比较并不完全准确。沈萌指出,App Store是一个更加多样化的平台,而GPT Store更多地依赖于大语言模型。虽然基于ChatGPT的应用有很多,但整个大方向基本上是一致的,这将导致GPT Store中的竞争变得激烈,消费者需要在有限的领域中选择最佳应用。

要成为下一个App Store,GPT Store面临着一些理想与现实之间的差距。首先,OpenAI需要建立一个强大的开发者社区,吸引更多开发者的参与。其次,GPT Store需要提供丰富多样的应用和服务,以满足用户的需求。此外,OpenAI还需要解决一些挑战,如数据隐私和安全性等问题,以建立用户的信任。

虽然GPT Store在AI应用生态建设方面具有潜力,但要达到苹果的成功并不容易。它需要在技术、开发者社区、应用丰富性和用户信任等方面取得突破,才能成为一个真正具有影响力的平台。

生态之急

GPT Store的推出引发了人们对于AI应用生态建设的讨论,这与OpenAI的商业化进程密切相关。然而,OpenAI并不是唯一一个急需应用和生态的机构。

李彦宏多次提到了构建AI原生应用生态的紧迫性。在去年的百度世界大会上,他指出,如果没有基于大模型的丰富AI原生应用生态,大模型就没有多少价值。

在一次公开活动中,李彦宏直言不讳地表示:“过去一年,我看到大家对大模型的关注还停留在基础模型上,而没有关注到应用层面,我有点着急。我们需要推动AI原生应用的发展,只有这样才能实现真正的价值。”

这间接反映了国内大模型发展的现状:大模型的发展很快,但应用的发展相对较慢。公开数据显示,截至2023年10月,中国共有254家企业和高校研究机构开发了超过10亿参数规模的大模型,分布在20多个省市/地区,总数达到238个。然而,在应用层面上,除了妙鸭相机曾经短暂地取得成功外,几乎没有其他突出的应用。

在大模型领域的竞争可能注定了一场淘汰赛的发生。百度集团执行副总裁、百度智能云事业群总裁沈抖曾表示,现在市场上有很多模型,但他认为其中很多模型将很快消失。

沈抖认为,目前许多模型之所以还存在,是因为人们还不知道它们的优劣。然而,随着模型的不断推出,优劣将更容易被评判。这将导致流量逐渐集中,头部模型更容易形成规模效应,从而进一步分摊模型研发成本。这也将拉大模型之间的差距。

这也进一步证实了李彦宏的预测:"AI原生时代需要100万个AI原生应用,而不是100个大模型。”在打造应用生态之前,国内的大模型还需要克服应用本身的难题。

“构建生态并不困难,困难的是真正掌握底层技术,基于底层技术进行自主创新,而不是简单地复制GPT Store。”沈萌表示。

郭涛也提到,国内大模型行业在应用层面的发展相对较慢。虽然一些企业已经开始尝试将大模型应用于实际场景,但整体上仍处于起步阶段。这主要是因为大模型的训练和应用需要大量的计算资源和数据支持,同时也需要解决一些技术和伦理问题。因此,国内大模型行业在应用层面的发展还需要更多的时间和努力。

  • 25
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
训练一个自己的GPT模型通常需要以下步骤: 1. 数据收集:首先需要收集大量的文本数据,这些数据应该与你想要训练的GPT模型的任务相关。例如,如果你想要训练一个针对英文新闻文章的GPT模型,那么你需要收集大量的英文新闻文章。 2. 数据清洗和预处理:在训练GPT模型之前,必须对数据进行清洗和预处理。这可能包括去除停用词、标点符号和其他噪声数据。 3. 训练语言模型:使用已有的语言模型(如GPT-2或BERT)或从头开始构建一个语言模型。语言模型的训练通常使用神经网络,例如循环神经网络(RNN)或转换器(Transformer)架构。 4. 微调模型:微调模型是指使用特定任务的数据对模型进行进一步训练,以便模型可以更好地执行该任务。例如,如果你想要训练一个用于情感分析的GPT模型,那么你需要使用情感分析数据对模型进行微调。 5. 模型评估和优化:最后,你需要评估你的模型的性能,并对其进行优化。你可以使用各种评估指标(如困惑度或准确性)来评估模型的性能,并尝试使用不同的优化技术来提高模型的性能。 需要注意的是,训练一个GPT模型需要大量的数据和计算资源,因此这是一个非常耗时和昂贵的过程。如果你没有足够的经验和资源来训练自己的GPT模型,那么你可以考虑使用已有的语言模型并进行微调,以便模型可以更好地执行你的任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值