- 先安装ollam
brew install ollama --cask
- 启动ollama
Ollama serve
- 重新开启一个终端下载并运行qwen模型
ollama run qwen:14b
- 在dify上配置ollama部署的qwen模型
模型名称为:qwen:14b
URl输入:http://localhost:11434 - 完结撒花🎉
参考内容:
https://blog.csdn.net/m0_63171455/article/details/140823224