知名模型/产品统计


以下,排名不分先后;方便查用。


智谱


语言模型

模型描述上下文最大输出
GLM-4-Plus New高智能旗舰: 性能全面提升,长文本和复杂任务能力显著增强128K4K
GLM-4-0520高智能模型:适用于处理高度复杂和多样化的任务128K4K
GLM-4-Long超长输入:专为处理超长文本和记忆型任务设计1M4K
GLM-4-AirX极速推理:具有超快的推理速度和强大的推理效果8K4K
GLM-4-Air高性价比:推理能力和价格之间最平衡的模型128K4K
GLM-4-Flash免费调用:智谱AI首个免费API,零成本调用大模型。128K4K
GLM-4V图像理解:具备图像理解能力和推理能力2K1k
GLM-4-AllToolsAgent模型:自主规划和执行复杂任务128K4K
GLM-4旧版旗舰:发布于2024年1月16日,目前已被GLM-4-0520取代128K4K

多模态模型

模型描述最大输入输出分辨率
GLM-4V-Plus New视频和图像理解:具备视频内容和多图片的理解能力8K-
GLM-4V图像理解:具备图像理解能力和推理能力2K-
CogVideoX视频生成:输入文本或图片即可轻松制作视频0.5K1440x960
CogView-3.5 New图片生成:根据用户文字描述生成高质量图像,支持多图片尺寸1k1024x1024 768x1344 864x1152 等
CogView-3图片生成:根据用户文字描述快速、精准生成图像1k1024x1024

向量模型

模型描述最大输入向量维度
Embedding-3最新模型:支持自定义向量维度8K2048
Embedding-2旧版模型:目前已被Embedding-3取代8K1024

其他模型

模型描述上下文最大输出
ChatGLM-3拟人模型:适用于情感陪伴和虚拟角色。4K2K
Emohaa心理模型:具备专业咨询能力,帮助用户理解情感并应对情绪问题。8K4k
CodeGeeX-4代码模型:适用于代码自动补全任务128K4k

即将弃用模型

我们已经宣布了以下模型的弃用日期。在这些模型弃用后,我们会将它们自动路由至新的模型。请用户注意在弃用日期之前,将您的模型编码更新为最新版本,以确保服务的顺畅过渡。

模型弃用时间指向模型
GLM-3-Turbo2025年6月30日GLM-4-Air
ChatGLM_Turbo2024年9月30日GLM-4-Air
ChatGLM_Pro2024年9月30日GLM-4-Air
ChatGLM_Std2024年9月30日GLM-4-Air
ChatGLM_Lite2024年7月30日GLM-4-Air

Qwen


通义千问分为闭源和开源两大版本。

开源模型包括:

  • 通义千问 (Qwen):语言模型
    • Qwen: 1.8B、 7B、 14B 及 72B 模型
    • Qwen1.5: 0.5B、 1.8B、 4B、 14BA2.7B、 7B、 14B、 32B、 72B 及 110B 模型
    • Qwen2: 0.5B、 1.5B、 7B、 57A14B 及 72B 模型
    • Qwen2.5: 0.5B、 1.5B、 3B、 7B、 14B、 32B 及 72B 模型
  • 通义千问 VL (Qwen-VL): 视觉语言模型
    • Qwen-VL: 基于 7B 的模型
    • Qwen-VL: 基于 2B 、 7B 和 72B 的模型
  • 通义千问 Audio: 音频语言模型
  • Code通义千问 / 通义千问Coder:代码语言模型
  • 通义千问 Math:数学语言模型

MoonShot


当前支持的模型有:

  • moonshot-v1-8k: 它是一个长度为 8k 的模型,适用于生成短文本。
  • moonshot-v1-32k: 它是一个长度为 32k 的模型,适用于生成长文本。
  • moonshot-v1-128k: 它是一个长度为 128k 的模型,适用于生成超长文本。

InternLM


  • InternVL:GPT-4V的开创性开源替代品。
    • InternVL 2.0 : InternVL2-Llama3-76B、InternVL2-Llama3-76B-AWQ、InternVL2-40B、InternVL2-40B-AWQ、InternVL2-26B、InternVL2-26B-AWQ 、InternVL2-8B、InternVL2-8B-AWQ 、InternVL2-4B、InternVL2-2B、InternVL2-2B-AWQ、InternVL2-1B、InternOmni
    • InternVL 1.5 : InternVL-Chat-V1-5、InternVL-Chat-V1-5-AWQ、InternViT-300M-448px、InternViT-6B-448px-V1-5、Mini-InternVL-Chat-2B-V1-5、Mini-InternVL-Chat-4B-V1-5
    • InternVL 1.0 : InternVL、InternVL-14B-224px、InternVL-14B-Flickr30K-FT-364px、InternVL-14B-FlickrCN-FT-364px、InternVL-Chat-V1-1、InternVL-Chat-V1-2、InternVL-Chat-V1-2-Plus、InternVL-Chat-ViT-6B-Vicuna-13B、InternVL-Chat-ViT-6B-Vicuna-13B-448px、InternVL-Chat-ViT-6B-Vicuna-7B、InternViT-6B-224px、InternViT-6B-448px-V1-0、InternViT-6B-448px-V1-2
  • InternImage:具有可变形卷积的大型视觉基础模型。
    • DCNv4、InternImage、internimage_b_1k_224、internimage_s_1k_224、internimage_t_1k_224、internimage_xl_1k_384
  • InternVideo:用于多模态理解的大规模视频基础模型。
    • InternVideo2 : InternVideo2-CLIP-1B-224p-f8、InternVideo2-Chat-8B、InternVideo2-Stage1-1B-224p-K400、InternVideo2-Stage1-1B-224p-K600、InternVideo2-Stage1-1B-224p-K700、InternVideo2-Stage1-1B-224p-f8、InternVideo2-Stage1-1B-224p-f8-MiT、InternVideo2-Stage1-1B-224p-f8-SthSth、InternVideo2-Stage1-1B-224p-f8-k710、InternVideo2-Stage2_1B-224p-f4、InternVideo2_Chat_8B_InternLM2_5、InternVideo2_Vid_Text、InternVideo2_chat_8B_好的、InternVideo2_distillation_models
    • InternVid : InternVid、InternVid-10M-FLT-INFO、InternVid-Full、ViCLIP、ViCLIP-B-16-hf、ViCLIP-L-14-hf
    • VideoMamba
  • VideoChat:用于视频理解的端到端聊天助手。
    • VideoChat2-IT、VideoChat2_HD_stage4_Mistral_7B、VideoChat2_HD_stage4_Mistral_7B_hf、VideoChat2_stage2_Mistral_7B、VideoChat2_stage3_Mistral_7B
  • All-Seeing Project:走向全景视觉识别和开放世界的理解。
    • AS-100M、AS-Core、AS-V2、ASM-FT、ASM-Pretrain、ASMv2、ASMv2-Stage1-Ft、ASMv2-Stage2-Pretrain、CRPE、Caption-Evaluation-Data、Region-Evaluation-Data

Meta Llama


  • Llama 3.1 : Meta-Llama-3.1-8B、Meta-Llama-3.1-8B-Instruct、Meta-Llama-3.1-70B、Meta-Llama-3.1-70B-Instruct、Meta-Llama-3.1-405B、Meta-Llama-3.1-405B-Instruct、Meta-Llama-3.1-405B-FP8、Meta-Llama-3.1-405B-Instruct-FP8、Llama-Guard-3-8B、Llama-Guard-3-8B-INT8、Prompt-Guard-86M
  • Llama 3.1 Evals : Meta-Llama-3.1-8B-evals、Meta-Llama-3.1-8B-Instruct-evals、Meta-Llama-3.1-70B-evals、Meta-Llama-3.1-70B-Instruct-evals、Meta-Llama-3.1-405B-evals、Meta-Llama-3.1-405B-Instruct-evals
  • Meta Llama 3 : Meta-Llama-3-8B、Meta-Llama-3-8B-Instruct、Meta-Llama-3-70B-Instruct、Meta-Llama-3-70B、Meta-Llama-Guard-2-8B
  • Llama 2 Family : Llama-2-7b-hf、Llama-2-13b-hf、Llama-2-70b-hf、Llama-2-7b-chat-hf、Llama-2-13b-chat-hf、Llama-2-70b-chat-hf、Llama-2-7b、Llama-2-13b、Llama-2-70b、Llama-2-7b-chat、Llama-2-13b-chat、Llama-2-70b-chat、LlamaGuard-7b
  • Code Llama Family : CodeLlama-7b-hf、CodeLlama-13b-hf、CodeLlama-34b-hf、CodeLlama-70b-hf、CodeLlama-7b-Python-hf、CodeLlama-34b-Python-hf、CodeLlama-13b-Python-hf、CodeLlama-70b-Python-hf、CodeLlama-7b-Instruct-hf、CodeLlama-13b-Instruct-hf、CodeLlama-34b-Instruct-hf、CodeLlama-70b-Instruct-hf.

DeepSeek

DeepSeek V2 Chat和DeepSeek Coder V2模型已经合并升级为新模型DeepSeek V2.5


  • DeepSeek-Prover : DeepSeek-Prover-V1、DeepSeek-Prover-V1.5-Base、DeepSeek-Prover-V1.5-RL、DeepSeek-Prover-V1.5-SFT
  • DeepSeek-V2 : DeepSeek-V2、DeepSeek-V2-Chat、DeepSeek-V2-Chat-0628、DeepSeek-V2-Lite、DeepSeek-V2-Lite-Chat、DeepSeek-V2.5
  • DeepSeekCoder-V2 : DeepSeek-Coder-V2-Base、DeepSeek-Coder-V2-Instruct、DeepSeek-Coder-V2-Instruct-0724、DeepSeek-Coder-V2-Lite-Base、DeepSeek-Coder-V2-Lite-Instruct
  • DeepSeek-Math :deepseek-math-7b-base、deepseek-math-7b-instruct、deepseek-math-7b-rl
  • ESFT : models for paper expert-specialized fine-tuning
    • ESFT-gate-code-lite、ESFT-gate-intent-lite、ESFT-gate-law-lite、ESFT-gate-math-lite、ESFT-gate-summary-lite、ESFT-gate-translation-lite、ESFT-token-code-lite、ESFT-token-intent-lite、ESFT-token-law-lite、ESFT-token-math-lite、ESFT-token-summary-lite、ESFT-token-translation-lite、ESFT-vanilla-lite
  • DeepSeek-VL : deepseek-vl-7b-chat、deepseek-vl-1.3b-base、deepseek-vl-7b-base、deepseek-vl-1.3b-chat
  • DeepSeek-Coder : deepseek-coder-33b-instruct、deepseek-coder-6.7b-instruct、deepseek-coder-7b-instruct-v1.5、deepseek-coder-1.3b-instruct、deepseek-coder-6.7b-base、deepseek-coder-7b-base-v1.5、deepseek-coder-1.3b-base、deepseek-coder-33b-base
  • DeepSeek-LLM : deepseek-llm-67b-chat、deepseek-llm-7b-chat、deepseek-llm-67b-base、deepseek-llm-7b-base
  • DeepSeek-MoE : deepseek-moe-16b-base、deepseek-moe-16b-chat
  • DeepSeek-V2.5

Mistral AI


高级模型

模型权重可用性可通过API获得描述最大令牌API端点版本
Mistral Large✔️ Mistral Research License✔️我们用于高复杂性任务的顶层推理模型,最新版本v2于2024年7月发布。了解更多信息,请访问我们的博客文章128kmistral-large-latest24.07
Mistral Small✔️ Mistral Research License✔️我们最新的企业级小型模型,最新版本v2于2024年9月发布。了解更多信息,请访问我们的博客文章32kmistral-small-latest24.09
Codestral✔️ Mistral Research License✔️我们用于编码的尖端语言模型于2024年5月发布32kcodestral-latest24.05
Mistral Embed✔️我们用于提取文本提取表示的最先进语义8kmistral-embed

免费模型

  • 最新模型
模型权重可用性可通过应用编程接口描述最大令牌应用编程接口端点版本
Pixtral✔️ Apache2✔️一个12B模型,除了文本之外还有图像理解功能。了解更多关于我们的博客文章128kpixtral-12b-240924.09

  • 研究模型
模型权重可用性可通过API获得描述最大令牌API端点版本
Mistral Nemo✔️ Apache2✔️我们最好的多语言开源模型于2024年7月发布。了解更多关于我们的博客文章128kopen-mistral-nemo24.07
Codestral Mamba✔️ Apache2✔️我们的第一个Mamba 2开源模型于2024年7月发布。了解更多关于我们的博客文章256kopen-codestral-mambav0.1
Mathstral✔️ Apache2我们的第一个数学开源模型于2024年7月发布。了解更多关于我们的博客文章32kNAv0.1

  • 传统模型
模型权重可用性可通过API获得描述最大令牌API端点版本
Mistral7B✔️ Apache2✔️我们的第一个密集模型于2023年9月发布。了解更多关于我们的博客文章32kopen-mistral-7bv0.3
Mixtral 8x7B✔️ Apache2✔️我们的第一个稀疏混合专家于2023年12月发布。了解更多关于我们的博客文章32kopen-mixtral-8x7bv0.1
Mixtral 8x✔️ Apache2✔️我们迄今为止最好的开源模型于2024年4月发布。了解更多关于我们的博客文章64kopen-mixtral-8x22bv0.1

Google Gemma


  • Gemma 2 Release :
    gemma-2-2b 、gemma-2-2b-it 、gemma-2-9b 、gemma-2-9b-it
  • PaliGemma Release :
    paligemma-3b-pt-224 、paligemma-3b-pt-448 、paligemma-3b-pt-896
  • PaliGemma FT Models
    paligemma-3b-ft-ai2d-224-jax 、paligemma-3b-ft-ai2d-448-jax 、paligemma-3b-ft-aokvqa-da-224-jax 、paligemma-3b-ft-aokvqa-da-448-jax
  • CodeGemma Release
    codegemma-2b 、codegemma-7b 、codegemma-7b-it 、codegemma-7b-it-GGUF
  • RecurrentGemma Release
    recurrentgemma-9b 、recurrentgemma-9b-it 、recurrentgemma-2b-it 、recurrentgemma-2b
  • Gemma Release
    gemma-1.1-2b-it 、gemma-1.1-7b-it 、gemma-1.1-7b-it-GGUF 、gemma-1.1-2b-it-GGUF
  • Gemma 2 2B Release
    gemma-2-2b 、gemma-2-2b-it 、gemma-2-2b-pytorch 、gemma-2-2b-it-pytorch
  • ShieldGemma Release
    shieldgemma-2b 、shieldgemma-9b 、shieldgemma-27b
  • Gemma Scope Release
    gemma-scope 、gemma-scope-2b-pt-res 、gemma-scope-2b-pt-mlp 、gemma-scope-2b-pt-att
  • BERT Release
    bert-base-cased 、bert-base-uncased 、bert-large-cased 、bert-large-uncased
  • ALBERT Release
    albert-base-v1 、albert-large-v1 、albert-xlarge-v1 、albert-xxlarge-v1
  • ELECTRA Release
    electra-small-generator 、electra-small-discriminator 、electra-base-generator 、electra-base-discriminator
  • Flan-T5 Release
    flan-t5-small 、flan-t5-base 、flan-t5-large 、flan-t5-xxl
  • T5 Release
    t5-base 、t5-small 、t5-large 、mt5-base 、mt5-large 、umt5-small 、umt5-xl
  • seahorse Release
    seahorse-xxl-q1 、seahorse-xxl-q2 、seahorse-xxl-q3 、seahorse-xxl-q4
  • Switch-Transformers Release
    switch-base-256 、switch-base-128 、switch-base-64 、switch-base-32
  • SigLIP
    siglip-so400m-patch14-384 、siglip-base-patch16-256-multilingual 、siglip-base-patch16-512 、siglip-base-patch16-384
  • Metricx-23
    metricx-23-qe-large-v2p0 、metricx-23-qe-xl-v2p0 、metricx-23-qe-xxl-v2p0 、metricx-23-large-v2p0
  • IndicGenBench 、IndicGenBench_xquad_in 、IndicGenBench_crosssum_in 、IndicGenBench_xorqa_in 、IndicGenBench_flores_in
  • ImageInWords
  • DataGemma
    datagemma-rag-27b-it 、datagemma-rig-27b-it
  • TimesFM Release 、timesfm-1.0-200m 、timesfm-1.0-200m-pytorch

Jina AI



2024-09-23(一)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

富婆E

请我喝杯伯爵奶茶~!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值