OpenAI CEO Altman:大语言模型不是“越大越好”

OpenAI的CEOSamAltman认为,大语言模型的参数数量并非衡量其质量的关键,而是应注重模型的能力和实用性。他提出未来的趋势可能是发展更小的模型或采用多个小模型协作,以提高效率和性能。Altman引用芯片发展的历史,说明用户更关心功能而非单纯的参数数量。
摘要由CSDN通过智能技术生成

18cf628fcc0c3ac15e45de9cea5c05b5.jpeg

来源:网易新闻|华尔街新闻

毫无疑问,ChatGPT依赖的是迄今为止最复杂的大语言模型(LLM),但在OpenAI掌门人看来,LLM并非越大越好。

当地时间4月13日,OpenAI联合创始人兼首席执行官Sam Altman在麻省理工学院的“想象力在行动”活动上接受了媒体的采访。

他认为我们正为了大小而逐渐接近LLM的极限。Altman说:

我认为,我们已经走到了这个时代的尽头,我们将以其他方式把这些巨型模型做得更好。

Altman认为,大小并非衡量一个模型质量的正确方式,他还把LLM与芯片的发展速度进行了比较。

我认为人们过于关注参数数量,也许参数数量肯定会增加。但是,这让我想起了上世纪90年代和2000年代的千兆赫芯片竞赛,当时每家公司都追求大参数。

正如他指出的那样,如今有些手机上运行着功能更强大的芯片,但用户大多数时候并不知道它们的速度有多快,只知道它们能很好地完成工作。

Altman认为,未来模型参数应该向更小的方向发展,或者以多个小模型协作的方式工作。

我认为,重要的是,我们将重点放在迅速提高(模型)能力上。

如果可以的话,参数数量应该随着时间的推移而减少,或者我们应该让多个模型一起工作,每个模型都更小,我们就会这样做。

我们希望向世界提供的是最强大、最实用、最安全的模型。当然,我们并不是要忽略参数数量。

Altman还说:

我们已经为此努力了很长时间,但我们的信心正逐渐增强,相信它真的会奏效。

我们建立这家公司已经七年了。这些事情需要很长、很长的时间。总的来说,我想说的是为什么别人没有成功的时候它却成功了: 这只是因为我们已经在研究每一个细节很长一段时间了。而大多数人不愿意这么做。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

f952058ebd1a72a02e6e06a32b020038.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值