目前dify版本更新速度很快,4月时dify连续版本升级、修复不少问题,截止5月1日,最新版本为dify1.31(5月28日已更新到1.41)
Dify+ollama是大语言模型(LLM)本地化部署常用的AI发布和运用框架。早些时候dify无法直接从远程仓库拉取下来,升级起来有些麻烦。近期可以直接访问,这大大方便了版本的更新维护。(现GitHub也可以直接访问)
docker部署dify 1.0时,若直接用Ollama加载本地化模型可能会报错,很多案例都提到了配置dify/docker文件夹下的.env文件需要增加配置,如增加:
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(根据部署环境调整 IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434
实测确实解决了dify1.0等环境下添加ollama模型的问题。到了1.2以及1.3版本后,情况有所变化。
按照官网 Docker Compose 部署 - Dify Docs提示:
更新 Dify
进入 dify 源代码的 docker 目录,按顺序执行以下命令:
cd dify/docker
docker compose down
git pull origin main
docker compose pull
d