开源大模型部署——ollama

开源大模型部署——ollama


前言

本文是基于ollama来部署llama3大模型的一个例子,在ollama官网库中有其他模型(qwen2、phi3等)选择。


一、下载并安装ollama

Ollama官网下载地址:https://ollama.com/download
在这里插入图片描述
安装成功后打开cmd输入ollama,若出现如下内容,则代表安装成功。

C:\Users\78609>ollama
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

二、下载模型(以llama3的4b模型为例)

在cmd中输入

ollama run llama3

下载成功后就可以进行使用。
下载成功后就可以进行使用
在这里插入图片描述

三、部署前端界面(MaxKB)

电脑上要有docker

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data cr2.fit2cloud.com/1panel/maxkb

完成安装
MaxKB在GitHub上的代码
在这里插入图片描述
MaxKB在Ubuntu 22.04 / CentOS 7部署&离线部署教程

四、使用web界面部署模型

输入网址http://127.0.0.1:8080/
输入用户名: admin密码: MaxKB@123..
在这里插入图片描述
登录成功后创建应用
在这里插入图片描述
选择模型
在这里插入图片描述

注意注意
MaxKB 版本为 0.9.0,API 域名格式为:http://您ollama所在服务的ip地址:您ollama的端口号/v1 MaxKB 版本为 0.9.1及之后的版本API 域名格式:http://您ollama所在服务的ip地址:您ollama的端口号/ 注意:API 域名不可使用 127.0.0.1 或 localhost。
API域名填写为http://host.docker.internal:11434
在这里插入图片描述
演示效果
在这里插入图片描述

五、注意事项

问题1:API 域名无效
解决方法:API域名填写为http://host.docker.internal:11434


问题2:用docker安装之后,然后重启容器之后数据全部丢失,能不能不让丢失。确定是用 docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb 启动的。
解决方法:启动的时候添加 --privileged=true
比如将数据挂载到D盘
docker run -d --name=maxkb -p 8080:8080 -v D:/maxkb/data:/var/lib/postgresql/data --privileged=true 1panel/maxkb
如果启动还是报错,那就需要使用wsl子系统

Windows PowerShell命令行窗口在Windows系统开始那里
先安装WSL(管理员运行Windows PowerShell:wsl --update)
安装Ubuntu(管理员运行Windows PowerShell:wsl --install -d Ubuntu),运行后要设置帐号密码,注:输入密码时,密码不会显示在命令行窗口,不要惊慌,实际已设置好了。
官网下载安装Docker后注册帐号(需科学上网),在Docker软件设置里,找到“Resource”项→"WSL integration"项,将“Enable integration with my default wSL distro”打勾,将“Ubuntu”打开。后连接Docker(管理员运行Windows PowerShell:docker login)
Docker是国外的软件,日常使用需加速,不加速就得科学上网(但这样不切实际),所以在Docker设置里,找到“Docker Engine”,设置Docker镜像加速代码:
注意:一个逗号都不能少,直接复制这个就可以了。

“builder”: {
“gc”: {
“defaultKeepStorage”: “20GB”,
“enabled”: true
}
},
“experimental”: false,
“registry-mirrors”: [
“https://dockerproxy.com ”,
“https://docker.mirrors.ustc.edu.cn ”,
“https://docker.nju.edu.cn ”
]

安装MaxKB镜像(点击Ubuntu图标后出现命令行窗口,后输入命令行:

docker run -d --name=maxkb -p 8080:8080 -v /maxkb:/var/lib/postgresql/data --privileged=true 1panel/maxkb

总结

本文作为开源大模型部署方法的部署手册,供大家参考。
更具体的教程可以参考【教程】Windows系统本地部署Ollama+MaxKB安装教程
MaxKB 对接Ollama模型时,提示 API 域名不可用
b站视频:部署开源大模型
我用docker安装之后,然后重启容器之后数据全部丢失

  • 36
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
开源模型本地化部署是指将开源的大型模型部署到本地环境中,以便在本地进行模型推理和应用开发。这种部署方式可以提供更高的性能和更好的隐私保护,同时也可以避免依赖于云服务的限制和成本。 在进行开源模型本地化部署时,通常需要以下几个步骤: 1. 模型选择:选择适合自己需求的开源模型,例如BERT、GPT等。这些模型通常在公开的代码库中可以找到。 2. 模型训练:根据自己的数据集和任务需求,对选择的模型进行训练。这一步需要有一定的机器学习和深度学习知识,并且需要有足够的计算资源。 3. 模型转换:将训练好的模型转换为适合本地部署的格式。通常情况下,需要将模型转换为常见的推理引擎支持的格式,如ONNX、TensorFlow Lite等。 4. 部署环境搭建:搭建本地的部署环境,包括安装相应的推理引擎、依赖库和硬件设备(如GPU)等。这一步需要根据具体的模型部署需求进行配置。 5. 模型部署:将转换好的模型加载到部署环境中,并编写相应的代码进行模型推理。这一步需要根据具体的推理引擎和编程语言进行操作。 6. 性能优化:根据实际需求,对模型进行性能优化,如模型量化、剪枝等技术,以提高模型的推理速度和资源利用率。 7. 测试和调优:对部署好的模型进行测试和调优,确保模型在本地环境中的性能和准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值