对标GPT4!开源32K上下文大模型

对标GPT4!开源32K上下文大模型

刚刚,Mistral AI 的模型又双叒叕更新了!

关注****智言AI对话,即可免费体验无魔法版本的DALL·E3(画图)、GPT实时联网和4V功能(看图)!

智言AI对话

关注公众号,点击:发消息,即可使用chat4.0!支持"绘图Dalle-3"、“看图4V”、语音对话…

公众号

可以复制使用本文中的chatgpt提示词哦! 电脑端复制链接进行使用: https://chat.chatgptten.com/

这次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。

图片

PPT 一翻页,全场都举起了手机拍照:

图片

这次开源的 Mistral 7B v0.2 Base Model ,是 Mistral-7B-Instruct-v0.2 背后的原始预训练模型,后者属于该公司的「Mistral Tiny」系列。

此次更新主要包括三个方面:

  • 将 8K 上下文提到了 32K;
  • Rope Theta = 1e6;
  • 取消滑动窗口。

图片

**

下载链接:https://models.mistralcdn.com/mistral-7b-v0-2/mistral-7B-v0.2.tar…

更新之后的性能对比是这样的:

图片

场外观众迅速跟进。有人评价说:「Mistral 7B 已经是同尺寸级别中最好的模型,这次改进是一个巨大的进步。 我将尽快在这个模型上重新训练当前的许多微调。」

图片

Mistral AI 的第一个 7B 模型发布于 2023 年 9 月,在多个基准测试中实现了优于 Llama 2 13B 的好成绩,让 Mistral AI 一下子就打出了知名度。

图片

这也导致目前很多开源大模型都已不再对标 Llama 2,而是将 Mistral AI 旗下的各系列模型作为直接竞争对手。

而 Mistral 7B v0.2 Base Model 对应的指令调优版本 Mistral-7B-Instruct-v0.2 在 2023 年 12 月就已开放测试,据官方博客介绍,该模型仅适用于英语,在 MT-Bench 上能够获得 7.6 分的成绩,逊于 GPT-3.5。

图片

此次开放基础模型之后,开发者们就可以根据自己的需求对这个「当前最好的 7B 模型」进行微调了。

不过,7B 模型只能算是 Mistral AI 众多惊艳成果中的一项。这家公司的长远目标是对标 OpenAI。

中文版ChatGPT4.0微信端使用方式

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

公众号.png

在这里插入图片描述

标签:

AIGC
ChatGPT

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值