日前,字节跳动豆包大模型在火山引擎原动力大会上正式发布,并公布了在企业市场的定价。该模型的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业价格便宜99.3%。”火山引擎总裁谭待表示,大模型从以分计价到以厘计价,将助力企业以更低成本加速业务创新。
据豆包大模型的定价计算,1块钱就能买到豆包主力模型的125万Tokens的用量,大约为200万个汉字,相当于三本《三国演义》。而128K的豆包通用模型也只需要0.005元/千Tokens,比行业价格低95.8%。要知道GPT-4 Turbo 输入1000 Tokens为0.01美元,输出1000 Tokens价格为0.21元。相比之下,字节跳动直接把价格“打骨折”,堪称AI界的拼多多。
不止“豆包”,国内不少大模型都开始卷价格。不久前,百度发布了文心大模型轻量版,其中ERNIE Tiny版本的价格降到了0.001元每千Tokens,相当于1元100万Tokens。今年5月,智谱AI的大模型商用价格也大幅降价。入门级产品GLM-3 Turbo模型调用价格下调80%,从5元/百万Tokens降至1元/百万Tokens,足以让更多企业和个人都能用上这款入门级产品。5月9日,阿里云正式发布通义千问2.5,根据OpenCompass的测评结果,通义千问2.5得分追平GPT-4 Turbo,与此同时,个人用户可从App、官网和小程序免费使用。5月14日,腾讯的混元文生图大模型直接开源,免费商用。
无论国内还是海外,大模型正在集体降价。在海外,OpenAI刚刚发布的GPT-4o也大幅度降价,不仅供所有用户免费使用,在API调用方面也比去年11月发布的GPT-4-turbo降价一半,但速度提升两倍。这是OpenAI大模型产品的第三次降价。法国人工智能企业Mistral AI大模型Mistral Large的输入、输出价格目前也比GPT-4 Turbo便宜约20%,一度引起广泛关注。
各个厂商“价格战”已经开打,而在大半年前,人们获知的常识是大模型训练很烧钱,为何仅仅半年时间,厂商们就能将价格“打下来”、纷纷卷了起来?火山引擎总裁谭待认为,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。对于中小型企业客户而言,调用大模型的一个重要考虑就是成本。谭待透露,字节跳动在模型结构、训练、生产等各种技术层面有很多优化手段能够实现降价。的确,低价正在帮助大模型研发企业抓住市场机会,以占据一席之地。而用户体量的增加也能反过来帮助研发训练出更好模型。
仅半年时间,如同“百团大战”那样各大厂商都在布局大模型的场景又重现了。只不过如今砸钱卷大模型性能的时代似乎已经是过去式。市场用户也随着各家大模型的降价更看重谁家大模型又优惠又好用。这也会推动大模型应用更快在场景和商业上实现落地。
相关素材整理于《「豆包」拉低价格线 全球大模型开卷性价比》一文