当下性价比最高的大语言模型DeepSeek-V2-Chat

  前一段时间,DeepSeek宣布1M的token只需要1块钱(人民币),率先打响了LLM价格战的第一枪,紧随其后,智谱宣布其旗下的GLM-3-Turbo也只需要1块钱(批处理只需要5毛),然后前两天字节开发布会,宣布豆包只需要8毛钱/M,国内几家公司纷纷卷大模型的价格,要知道现在OpenAI的gpt-4o需要36¥(5$),而gpt-3.5-turbo还需要3.6¥(0.5$),同水平的模型OpenAI算比较便宜的。另外国内像阿里的Qwen1.5-110B,fireworks.ai提供的报价是6.5¥(0.9$)。

  当然像gpt-4o代表着目前全球最先进的大模型,价格贵点可以说一分钱一分货,但从性价比上来说肯定是排不进前面的。今天我们就来看下目前仅有的价格低到1块钱/M的模型,DeepSeek-V2-Chat、GLM-3-Turbo和豆包,不过目前豆包API还未开放给个人使用,而且字节方面也从未公布过其相关性能指标,豆包也未参与过CompassRank的打榜,我们姑且认为它和gpt-3.5-turbo性能相当吧(大概率性能不如gpt-3.5-turbo,要不然这也会成为发布会的一个亮点之一)。

  这三者里当前是豆包价格最低,性能的话我们就参考CompassRank的评分榜。其中DeepSeek-V2-Chat位于榜单第8,gpt-3.5-turbo和glm3-6b分别位于23和36名。
在这里插入图片描述
在这里插入图片描述
  从上面的图中可以看出DeepSeek-V2-Chat在多个维度上是强于其他两个模型的,甚至DeepSeek-V2-Chat在编码上与GPT-4-Turbo-1106有一拼之力,依据上面的榜单,我说DeepSeek-V2-Chat、GLM-3-Turbo和豆包在性能是最强模型没毛病吧,其价格也相差无几,所以间接说其性价比是目前最高的也能说通吧。

在这里插入图片描述
  从DeepSeek-V2-Chat官方放出来的测评结果来说, 其性能也是一众模型中也是很优秀的,目前价格也是最低的。
在这里插入图片描述

  当然上文中说的1块钱1M token的DeepSeek-V2-Chat是官网了上下文长度为32k的版本,128k的版本目前官网并没有提供。豆包pro也是32k的最大上下文,而glm3虽然各项评分偏弱,但他提供了128k的上下文长度,这算是它一个优势吧。

  最后如果大家想用deepseek-v2的话可以去官网注册账号,然后实名下即可,没有太多门槛。 https://platform.deepseek.com/api-docs/zh-cn/

声明:没有收deepseek的广告费,就是单纯个人推荐。

  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

xindoo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值