Ollama (Ollama) 是一款命令行工具,可在 macOS 、 Linux 、Windows 上本地运行 Llama 2、Code Llama 、Gemma 等模型。
工具下载网址:Ollama
支持的数据模型:支持模型
1、根据 pc 系统安装ollama,安装之后并运行。
2、打开命令行工具窗口:
ollama run gemma:2b
3、模型安装完成,我这边选择的是 gemma:2b ,接着就可以直接使用了。
4、还可以直接 api 调用:
curl http://localhost:11434/api/generate -d '{
"model": "gemma:2b",
"prompt":"什么是量子纠缠?"
}'
本机命令行使用和接口调用都使用正常,根据你的需求选择不同的模型下载使用吧。