在线教程丨超大模型部署无压力!一键运行 Llama 3.1 405B 和 Mistral Large 2

62d4f2afa826b0949c366a3240ebd3dc.png

作者:李宝珠

编辑:xixi、李宝珠

HyperAI超神经为大家上线了 Llama 3.1 405B 和 Mistral Large 2407 的一键部署教程,无需输入任何命令,只需点击「克隆」即可体验。

当地时间 7 月 23 日,Meta 正式发布 Llama 3.1,超大号的 405B 参数版本强势开启了开源模型的高光时刻,在多项基准测试中,表现追平甚至超越了现有 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet。

9ff4f77ea52243c8e65dfcde51ce7c96.png

扎克伯格也在 Llama 3.1 发布当日撰写了一篇题为「开源 AI 是前进之路」的长文,称 Llama 3.1 将成为行业的转折点。与此同时,业界一方面对于 Llama 3.1 所展现的强大能力跃跃欲试,另一方面也期待闭源大模型将如何接招。

有意思的是,Llama 3.1 这厢才问鼎王座,那厢 Mistral AI 就正面硬刚,发布 Mistral Large 2 并直指 405B 模型的「软肋」——难部署。

毫无疑问,405B 参数规模所需的硬件能力对于个人开发者而言,并不是一道能够轻易跨过的门槛,大多数爱好者只能望而却步。而 Mistral Large 2 模型参数量仅有 123B,不足 Llama 3.1 405B 的三分之一,部署门槛也随之降低,但性能却可以与 Llama 3.1「掰一掰手腕」。

例如,在 MultiPL-E 的多种编程语言基准测试中,Mistral Large 2 的平均得分超越 Llama 3.1 405B,与 GPT-4o 相差 1%,在 Python、C++、Java 等方面均超越 Llama 3.1 405B。正如其官方所言,Mistral Large 2 在评估指标的性能/服务成本方面开辟了新的前沿。


db58f6c9560e82e30a4b3e92f9972a56.png

一边是目前的开源模型参数规模「天花板」,另一边是超高「性价比」的开源新时代引领者,相信小伙伴们都不想错过!别着急,HyperAI超神经为大家上线了 Llama 3.1 405B 和 Mistral Large 2407 的一键部署教程,无需输入任何命令,只需点击「克隆」即可体验。

* 使用 Open WebUI 一键部署 Llama 3.1 405B 模型:

https://go.hyper.ai/iyL60

* 使用 Open WebUI 一键部署 Mistral Large 2407 123B:

https://go.hyper.ai/Bwf6G

同时,我们还准备了进阶教程,大家可以按需选择:

* 一键部署 Llama 3.1 405B 模型 OpenAI 兼容 API 服务:

https://go.hyper.ai/1AiDi

* 一键部署 Mistral Large 2407 123B 模型 OpenAI 兼容 API 服务:

https://go.hyper.ai/Smexo

小编使用 Open WebUI 一键部署 Mistral Large 2407 123B,并进行了测试,针对大模型频频翻车的「9.9 与 9.11 哪个大」的问题,Mistral Large 2 也未能幸免:

4f8f787a5be082224a3bf07e411a9d3c.jpeg

感兴趣的小伙伴速来体验吧,详细教程如下 ⬇️

Demo 运行

本次文字教程会以「使用 Open WebUI 一键部署 Mistral Large 2407 123B」和「一键部署 Llama 3.1 405B 模型 OpenAI 兼容 API 服务」为例,为大家拆解操作步骤。

使用 Open WebUI 一键部署 Mistral Large 2407 123B

1. 登录 hyper.ai,在「教程」页面,选择「使用 Open WebUI 一键部署 Mistral Large 2407 123B」,点击「在线运行此教程」。

b03c477fbdadde2d008abdc9d55913b9.png

2. 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

8f974bfd95d823572898d9e40b5c01bd.png

3. 点击右下角「下一步:选择算力」。

62d6c98a355f26f14f4215179d5bb6f8.png

4. 页面跳转后,选择「NVIDIA RTX A6000-2」以及 「vllm」镜像,点击「下一步:审核」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!

HyperAI超神经专属邀请链接(直接复制到浏览器打开):

https://openbayes.com/console/signup?r=6bJ0ljLFsFh_Vvej

efcf65503ebaafa5229f8aaa1a8d689c.png

5. 确认无误后,点击「继续执行」,等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。

若超过 10 分钟仍处于「正在分配资源」状态,可尝试停止并重启容器;若重启仍无法解决,请在官网联系平台客服。

9ad657babf45ec2e9b517b0210dba14a.png

52dc56cefb57d497404e966926a62d46.png

6. 打开 Demo 后,即可立即开启对话。

504a91247cd01707e583fe37e83a9dae.png

8c8c419d2846e9380c27640447ef9aea.png

一键部署 Llama 3.1 405B 模型 OpenAI 兼容 API 服务

1. 想要部署 OpenAI 兼容 API 服务的小伙伴,在教程界面选择「一键部署 Llama 3.1 405B 模型 OpenAI 兼容 API 服务」,同样,点击「在线运行教程」

861faa0569f2d8c0e53a95297ef58016.png

d8a2807404b7e1f6d9107fe5b2b14b6e.png

2. 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

cee152d7319126d452eb30dff2209130.png

3. 点击右下角「下一步:选择算力」。

6e89930afeadd7f5d9971735e032c893.png

4. 页面跳转后,因模型较大,算力资源需要选择「NVIDIA RTX A6000-8」,镜像依旧选择「vllm」,点击「下一步:审核」。

a7fe92cee06aa9661227d5460b00bbe1.png

5. 确认无误后,点击「继续执行」,等待分配资源,首次克隆需等待 6 分钟左右的时间,待状态显示为「运行中」后,模型会自动开始加载。

89993ddcf6b30dfb69b5ca68f5af2f91.png

e3a90aa7b25959e33dfa9f821a610694.png

6. 将该界面拉至最底部,当日志显示以下路由信息时,说明服务已经启动成功,打开 API 地址。

41c5ccdf25c6d314a7a7f4d7d6225b91.png

84152ea5620c1f44a3e7689d96a90be1.png

7. 打开后,会默认显示 404 的信息,在红框处添加额外的参数「/v1/models」即可显示当前模型的部署信息。

5eddca5b80b6712fbce7951e8498c88c.png

78ce717ad88fe9b435e1394f787bec5c.png

97b45c3a0ad38001736df680a9234214.png

9bf9837143f1c5e4b7c9885eb3455d8e.png

8. 在本地起一个 Open WebUI 的服务,在「外部连接」处起一个额外的连接,在「OpenAPI」处填写之前的 API 地址并 ➕「/v1」,这里没有设置任何「API 密钥」自定义输入即可。点击右下角保存。

66fad76f188c5de7c77fe3b593d48aac.png

9. 保存后,在「选择模型」这里就可以看到出现了 Llama-3.1-405B,选择该模型后,即可开启对话啦!

3765e9b7ce9f7d5900292e33d4b418f4.png

bbe2e31386b17b319234396e458640ff.png

最后推荐一个线上学术分享活动,感兴趣的小伙伴扫码即可参与!

1d17cbb3d7d98a63e3f273aa237593bb.png

 往期推荐 

e0aef51a6163a1e69fe72a226495eda8.png

6a2eb28b23e1a06f1ca7c8fbf6dd44e2.png

89b7e3bbf3957637cfa2daa0dc559c99.png

4fd416d322498d3f5b56f6804df19090.gif

a9a6f628ac2025962b5f0e1335060627.gif

戳“阅读原文”,免费获取海量数据集资源!

  • 12
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值