Docker+Ollama+WebUI+AnythingLLM,构建企业本地AI大模型
将上面的docker run命令转换为docker-compose.yml文件,并设置open-webui和anythingllm服务依赖于ollama服务,方便管理。这将停止并移除容器,但不会删除卷。每个服务都有自己的配置,包括镜像、容器名称、重启策略、特权模式、端口映射和卷挂载。这将按照文件中定义的配置启动所有服务。路径替换为实际的宿主机路径,或者根据需要创建这些目录。openAI 的 GPT 大模型的发展历程。这将重建任何已更改的服务的镜像。
原创
2024-05-31 11:08:05 ·
1911 阅读 ·
0 评论