本地部署运行 Google Gemma 开源大模型

Google 开源了 Gemma 大模型,有 7B 和 2B 两个版本。

而且,性能非常强悍,基准测试中 7B 模型的能力已经是开源模型中的领先水平。

Gemma 可以轻松的在本地部署运行,如果你的显存在 8G 以上,可以体验 7B 版本,8G 以下的话可以试试 2B 版本。

下面是本地部署步骤,以及体验感受。

一、部署步骤

思路:

  • 使用 ollama 运行 Gemma 模型

  • 使用 Chatbox 作为 UI 客户端

1. 安装 ollama

打开网页 https://ollama.com/

下载你相应操作系统的版本。

我的是 Windows,下载后直接运行安装。

安装完成后,在命令行中执行命令:

ollama -V

正确显示版本号即为安装成功。

2. 运行 Gemma

ollama 网页顶部导航中有一个 “Models” 链接,点击。

点击 “gemma” 链接,进入模型页面。

点击 “Tags” 标签,找到 “7b” 模型,后面有运行模型的命令,点击复制按钮。

命令行中执行这个命令,首次运行时,会自动下载模型。

下载完成后,就进入交互模式,这就可以开始聊天了。

例如让它写一段python代码。

至此,Gemma 模型的本地部署运行已经完成了,非常简单。

3. 安装 Chatbox

在命令行聊天很不方便,需要一个客户端。

Chatbox 支持 ollama,非常方便。

先下载安装 Chatbox。

项目地址 https://github.com/Bin-Huang/chatbox

在 Releases 页面中下载最新版本(目前是1.2.2,已经支持了 ollama),然后安装。

打开设置,模型提供方选 ollama,API 地址是本地的 11434 端口,模型选 gemma:7b。

保存后,打开新对话窗口,即可开始聊天。

二、使用体验

1. 内容生成质量

例如,我让它用文艺伤感的方式描写“秋天来了”

写的还是挺好的。

3. 响应速度

我的显卡是 4060Ti,16G 显存,响应速度超快。

在内容生成过程中,显存是满载的。


本地能够如此简单、流畅的运行高质量大模型真的非常爽,推荐尝试。

#AI 人工智能,#google gemma,#ollama,#chatbox,#本地部署大模型,#gpt890, #prompt

转自 https://gpt890.com/article/21

  • 10
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值