本教程主要为大家介绍怎样在 OpenBayes 上进行大模型的推理,新朋友点击下方链接注册后,即可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费使用时长哦!
注册链接
首先,登录 OpenBayes.com ,点击「访问控制台」。
在左侧菜单栏中找到「公共资源」,点击「公共模型」-「大模型」。
然后我们可以看到 OpenBayes 已经存放的一些热门大模型的模型文件,我们以 ChatGLM2-6b 为例进行讲解。
首先点击「公共教程」-「大模型」,选择「快速部署 ChatGLM2-6b-32k」
页面跳转后,可以看到 README 有一个包含 4 步的讲解,点击右上角的「克隆」。
克隆后可以看到,点击右下角的「审核并执行」,然后点击「继续执行」。
待容器的状态变为「运行中」后,说明我们已经成功将该教程克隆到自己的工作空间并运行起来了,点击「打开工作空间」。
进入工作空间的界面后,首先打开左侧的 「README.md」,按照页面中显示的流程进行操作。
- 回到启动页点击「终端」,进入一个新的终端。
2. 输入命令cd ChatGLM-6B
,切换到目录 ChatGLM-6B
2.输入python web_demo.py
运行 Gradio demo。
稍等片刻,待新的访问链接出现后,在一个新的标签页打开它,就可以看到一个 ChatGLM 的 Gradio。
为了让大家更好地理解,OpenBaye贝式计算也为大家录制了详细的视频教程,可以点击下方链接查看,快速上手OpenBayes平台!
【OpenBayes 官方教程】部署 ChatGLM2-6b-32k 大模型_哔哩哔哩_bilibili
如在操作上遇到任何问题,欢迎大家添加 OpenBayes001 咨询