智谱GLM-4-9B,超越Llama3,多模态媲美GPT4V

前言

在 2023 年 3 月发布开源对话模型 ChatGLM-6B 后,智谱 AI 迅速成为国内外开源大模型领域的重要力量。今年 6 月,智谱 AI 再次发力,开源了其第四代 GLM 系列模型 —— GLM-4-9B,并首次加入了多模态能力。该模型不仅在性能上超越了 Llama 3 8B,更在多模态能力方面展现出与 GPT-4V 相媲美的实力。

  • Huggingface模型下载:https://huggingface.co/collections/THUDM/glm-4-665fcf188c414b03c2f7e3b7

  • AI快站模型免费加速下载:https://aifasthub.com/models/THUDM

技术特点

GLM-4-9B 采用了多项技术创新,使其在性能和功能上取得了重大突破:

  • 10T 高质量多语言数据: 智谱 AI 在预训练阶段引入了大语言模型参与数据筛选,最终获得了 10T 高质量多语言数据,是 ChatGLM3-6B 模型的 3 倍以上。这一突破性的数据量提升了模型的理解和生成能力,特别是多语言理解和生成能力。

  • FP8 技术提升训练效率: 为了提升训练效率,智谱 AI 采用了 FP8 技术进行高效的预训练,相较于第三代模型,训练效率提升了 3.5 倍。FP8 是指使用 8 位浮点数进行模型训练,相比传统的 32 位浮点数,能够显著减少显存占用和计算量,从而加速训练速度。

  • 模型规模提升: 为了在有限显存的情况下探索性能的极限,智谱 AI 将模型规模提升至 9B,并将预训练计算量增加了 5 倍。这进一步提升了模型的性能,使其能够处理更复杂的任务,并生成更高质量的文本和图像。

  • 长文本处理能力: GLM-4-9B 模型的上下文长度从 128K 扩展到了 1M tokens,这意味着模型能够同时处理 200 万字的输入,相当于两本红楼梦或者 125 篇论文的长度。这得益于智谱 AI 在模型架构和训练方法上的改进,使得模型能够更有效地处理长文本,并保持较高的准确性和效率。

  • 多语言能力: GLM-4-9B 支持包括汉语、英语、俄语、西班牙语、德语、法语、意大利语、葡萄牙语、波兰语、日语、荷兰语、阿拉伯语、土耳其语、捷克语、越南语、波斯语、匈牙利语、希腊语、罗马尼亚语、瑞典语、乌克兰语、芬兰语、韩语、丹麦语、保加利亚语和挪威语在内的 26 种语言。智谱 AI 通过扩展词表大小,并对多语言数据进行专门的训练,使得模型在多语言理解和生成任务上取得了显著的提升。

  • Function Call 能力: ChatGLM3-6B 模型的函数调用一直广受各大开发者喜爱。GLM-4-9B 模型的函数调用能力更上一层楼,相比上一代提升了 40%,在 Berkeley Function-Calling Leaderboard 上,GLM-4-9B 模型的 Function Call 能力与 GPT-4 不相上下。函数调用能力是衡量模型理解和执行代码的能力,这一提升使得 GLM-4-9B 能够更加灵活地处理用户请求,并能够完成更加复杂的任务。

  • All Tools 能力: “All Tools”即模型能够理解和使用一系列外部工具(比如代码执行、联网浏览、画图、文件操作、数据库查询、API 调用等)来辅助回答问题或完成任务。GLM-4-9B 模型支持 All Tools 功能,并提供了完整的 All Tools Demo,用户可以在本地拥有一个轻量级的清言平替。

  • 多模态能力: 智谱 AI 首次推出了基于 GLM 基座的开源多模态模型 GLM-4V-9B。该模型采用了与 CogVLM2 相似的架构设计,能够处理高达 1120 x 1120 分辨率的输入图片,并通过降采样技术有效减少了 token 的开销。为了减小部署与计算开销,GLM-4V-9B 没有引入额外的视觉专家模块,而是采用了直接混合文本和图片数据的方式进行训练,在保持文本性能的同时提升多模态能力。

性能表现

GLM-4-9B 在多个方面展现出优异的性能:

  • 基础能力提升: GLM-4-9B 的中英文综合性能相比 ChatGLM3-6B 提升了 40%,并在中文对齐能力 AlignBench、指令遵从 IFeval、工程代码 Natural Code Bench 等基准数据上都取得了非常显著的提升。对比训练量更大的 Llama 3 8B 也并不逊色,英文方面实现小幅领先,中文学科方面更是有着高达 50% 的提升。

  • 长文本处理: GLM-4-9B-Chat-1M 模型在 1M 的上下文长度下展现出了出色的无损处理能力。

  • 多语言能力: 评测显示,ChatGLM-4-9B 模型的多语言能力全面超过了 Llama-3 8B。

  • 多模态能力: 尽管 GLM-4V-9B 的参数量仅为 13B,但它成功地超越了许多参数量更大的开源模型,在众多任务中,GLM-4V-9B 的性能与 GPT-4V 不相上下。

应用场景

GLM-4-9B 的强大能力使其在多个领域具有广泛的应用场景:

  • 学术研究: 为研究者提供一个可复现、可解释的平台,推动大模型技术的发展。

  • 工业应用: 可以被应用于各种需要自然语言处理技术的行业,例如金融、医疗、电商等,为企业提供更加智能化的服务。

  • 个人用户: 可以为个人用户提供智能助手、创作工具等服务,提升生活效率和娱乐体验。

总结

智谱 AI 开源 GLM-4-9B,标志着中国开源大模型技术取得了新的突破。该模型在性能和功能方面都展现出强大的优势,并首次加入了多模态能力,为大模型技术发展注入了新的活力。未来,智谱 AI 将持续发展和优化 GLM 系列模型,为更多用户提供更优质、更便捷的服务。

模型下载

Huggingface模型下载

https://huggingface.co/collections/THUDM/glm-4-665fcf188c414b03c2f7e3b7

AI快站模型免费加速下载

https://aifasthub.com/models/THUDM

  • 24
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
GLM-4V是一种大型模型,它的全称是Generalized Linear Model-4V。GLM-4V是一种广义线性模型,它是基于广义线性模型(Generalized Linear Model, GLM)的扩展和改进。 GLM-4V的原理如下: 1. 广义线性模型GLM):GLM是一种统计模型,用于建立因变量与自变量之间的关系。它通过将线性回归模型与非线性函数相结合,可以处理不满足正态分布假设的数据。GLM的基本假设是,因变量的分布可以通过一个链接函数与自变量的线性组合相关联。 2. 四个"V":GLM-4V中的四个"V"代表了四个重要的概念,分别是Variation、Variance、Value和Validation。 - Variation(变异性):GLM-4V关注因变量的变异性,通过分析因变量的变异程度来确定模型的拟合程度。 - Variance(方差):GLM-4V考虑了因变量的方差,通过对方差进行建模,可以更好地描述因变量的分布特征。 - Value(价值):GLM-4V关注因变量的价值,通过对因变量的价值进行建模,可以更好地理解因变量对自变量的响应。 - Validation(验证):GLM-4V通过验证模型的拟合程度和预测能力,来评估模型的有效性和可靠性。 3. 模型构建:GLM-4V的模型构建包括以下几个步骤: - 数据准备:包括数据清洗、变量选择和数据转换等。 - 模型选择:选择适当的链接函数和误差分布族,并确定自变量的形式。 - 参数估计:使用最大似然估计或广义最小二乘法等方法,估计模型的参数。 - 模型诊断:对模型进行诊断,检验模型的拟合程度和假设条件是否满足。 - 模型评估:通过交叉验证等方法,评估模型的预测能力和稳定性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值