docker安装ollama

本文介绍了如何使用Docker拉取和运行镜像,包括CPU和NvidiaGPU版本,以及部署Web界面和调用OllamaRESTfulAPI进行模型生成和聊天。通过实例展示了如何在本地运行私有GPT模型并进行交互。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

拉取镜像

docker pull ollama/ollama

运行容器

(挂载路径 D:\ollama 改成你自己喜欢的路径)
CPU only 

docker run -d -v D:\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Nvidia GPU(没试过这个)

docker run -d --gpus=all -v D:\ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

运行模型

docker exec -it ollama ollama run llama2

测试了一下,llama2没有gemma:7b聪明,所以,后来我用了

docker exec -it ollama ollama run gemma:7b

 

上图就是运行成功了,可以在命令行中输入任何问题了。

 部署web界面

docker run -p 3000:3000 -e DEFAULT_MODEL=llama2:latest -e OLLAMA_HOST=http://IP地址:11434 ghcr.io/ivanfioravanti/chatbot-ollama:main

用浏览器打开http://localhost:3000,即可像使用ChatGPT一样使用自己的私有GPT了。

ollama RestfulApi

POST localhost:11434/api/generate 
{
    "model": "mistral",
    "prompt": "请用中文描述双亲委派机制",
    "stream": false
}

POST localhost:11434/api/chat
{
    "model": "mistral",
    "messages": [
        {
            "role": "user",
            "content": "请用中文回答:python,java,c的执行效率比较,并说明原因"
        }
    ]
}

curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt":"Why is the sky blue?"
}' 

curl http://localhost:11434/api/chat -d '{
  "model": "mistral",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}' 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值