震惊AI界!DeepSeek挑战GPT-4o霸主地位,发布超低价开源大模型
DeepSeek-V2 的综合能力
中文综合能力(AlignBench):开源模型中最强,与 GPT-4-Turbo
、文心 4.0 等闭源模型在评测中处于同一梯队
英文综合能力(MT-Bench) :处于第一梯队 英文综合能力(MT-Bench
)与最强的开源模型 LLaMA3-70B
处于同一梯队,超过最强 MoE
开源模型 Mixtral8x22B
知识:知识、数学、推理、编程等榜单结果位居前列
上下文:开源模型和 API
支持 128K
上下文
性能
一些分析报告指出,DeepSeek V2
模型在训练时使用了高达8.1万亿个token,并且展示了令人难以置信的高效训练能力,其计算需求仅为Meta Llama 3 70B
模型的五分之一。
换一种说法,DeepSeek-V2
在训练时所需的计算资源仅为 GPT-4
的二十分之一,但性能上