Windows docker 部署MiGPT+ 本地Ollama

1. 下载 MiGPT

https://github.com/idootop/mi-gpt

https://github.com/idootop/mi-gpt/releases/tag/v4.2.0

2. 运行 Ollama qwen模型

3.配置Mi GPT

.env

.migpt.js

运行docker

运行 需要上网

docker run -d --env-file D:/LLM/mi-gpt-4.2.0/.env -v D:/LLM/mi-gpt-4.2.0/.migpt.js:/app/.migpt.js idootop/mi-gpt:latest

运行需要小米账号授权

报错 可能接口不一致导致

2024-10-13 18:47:07
2024-10-13 18:47:19 2024/10/13 10:47:19 Speaker ✅ 服务已启动...
2024-10-13 18:47:32 2024/10/13 10:47:32 Speaker 🔥 请写一个十个字的小作文
2024-10-13 18:47:34 2024/10/13 10:47:34 Speaker 🔊 让我先想想
2024-10-13 18:47:48 2024/10/13 10:47:48 Open AI ❌ LLM 响应异常 APIConnectionError: Connection error.
2024-10-13 18:47:48     at OpenAI.makeRequest (/app/node_modules/.pnpm/openai@4.56.0/node_modules/openai/core.js:304:19)
2024-10-13 18:47:48     at process.processTicksAndRejections (node:internal/process/task_queues:95:5)
2024-10-13 18:47:48     at async OpenAIClient.chatStream (/app/dist/index.cjs:1253:20) {
2024-10-13 18:47:48   status: undefined,
2024-10-13 18:47:48   headers: undefined,
2024-10-13 18:47:48   request_id: undefined,
2024-10-13 18:47:48   error: undefined,
2024-10-13 18:47:48   code: undefined,
2024-10-13 18:47:48   param: undefined,
2024-10-13 18:47:48   type: undefined,
2024-10-13 18:47:48   cause: FetchError: request to http://192.168.2.101:11435/chat/completions failed, reason: connect ECONNREFUSED 192.168.2.101:11435
2024-10-13 18:47:48       at ClientRequest.<anonymous> (/app/node_modules/.pnpm/node-fetch@2.7.0/node_modules/node-fetch/lib/index.js:1501:11)
2024-10-13 18:47:48       at ClientRequest.emit (node:events:519:28)
2024-10-13 18:47:48       at Socket.socketErrorListener (node:_http_client:500:9)
2024-10-13 18:47:48       at Socket.emit (node:events:519:28)
2024-10-13 18:47:48       at emitErrorNT (node:internal/streams/destroy:169:8)
2024-10-13 18:47:48       at emitErrorCloseNT (node:internal/streams/destroy:128:3)
2024-10-13 18:47:48       at process.processTicksAndRejections (node:internal/process/task_queues:82:21) {
2024-10-13 18:47:48     type: 'system',
2024-10-13 18:47:48     errno: 'ECONNREFUSED',
2024-10-13 18:47:48     code: 'ECONNREFUSED'
2024-10-13 18:47:48   }
2024-10-13 18:47:48 }
2024-10-13 18:47:48 2024/10/13 10:47:48 Speaker 🔊 啊哦,出错了,请稍后再试吧!

### 使用 Docker 部署 Ollama 和 DeepSeek 教程 #### 准备工作 为了成功部署 Ollama 和 DeepSeek,在 Ubuntu 中需先安装 Docker。确保系统已更新并安装必要的依赖项[^1]。 ```bash sudo apt-get update && sudo apt-get upgrade -y ``` 接着,按照官方指南完成 Docker 的安装: ```bash curl -fsSL https://get.docker.com -o get-docker.sh sh get-docker.sh ``` #### 获取镜像 获取所需的 Docker 镜像对于启动容器至关重要。使用 `docker pull` 命令来下载 Ollama 或者特定于 DeepSeek 的镜像文件。 ```bash docker pull ollama/deepseek:latest ``` #### 启动容器 创建并运行一个新的容器实例用于承载应用程序。通过指定合适的参数可以配置环境变量、端口映射等选项。 ```bash docker run -d --name=ollama-p host_port:container_port \ ollama/deepseek:latest ``` 此处 `-d` 参数表示后台模式执行;`--name` 设定容器名称以便管理;而 `-p` 则用来绑定主机与容器间的网络通信端口。 #### 监控日志输出 利用命令行工具监控正在发生的事件有助于调试和验证服务状态。采用如下方式实时查看日志流。 ```bash docker logs -f ollama-container ``` 上述指令将持续显示由目标容器产生的最新消息直到手动终止会话为止。 #### 测试连接 确认应用已经正常上线之后就可以尝试访问所提供的 API 接口或者其他交互界面来进行功能测试了。具体 URL 取决于实际部署情况以及所开放的服务地址。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值