借助ollama工具实现模型的本地部署使用,本地使用的操作系统为ubuntu 22.04
ollama安装
ollama地址:https://github.com/ollama/ollama
这里选择手动安装方式
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama
ollama serve启动
ollama serve
启动后日志输出如下,输出了服务默认的端口,及检测导的GPU等
模型下载使用
llama3.1模型:
https://ollama.com/library/llama3.1:70b