2024 Ollama 一站式解决在Windows系统安装、使用、定制服务与实战案例

2024 Ollama 一站式解决在Windows系统安装、使用、定制服务与实战案例

一、前言

各位未来的开发者们请上座,下面教程走完大致需要40分钟就可以让掌握大模型本地化部署与使用。

1.Ollama介绍

Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。Ollama的目标是使大型语言模型的部署和交互变得简单,无论是对于开发者还是对于终端用户。

2.支持的操作系统

Ollama支持多种操作系统和Docker,包括但不限于:

  • macOS:适用于所有现代版本的macOS。
  • Windows:支持Windows 10及更高版本。
  • Linux:支持多种Linux发行版,如Ubuntu、Fedora等。
  • Docker:通过Docker容器,Ollama可以在几乎任何支持Docker的环境中运行。

这种广泛的操作系统支持确保了Ollama的可用性和灵活性,使得不同环境下的用户都能轻松使用。当然为了确保文章篇幅不过于臭长,只讲了Windows的部分,其他系统如果想要欢迎在下面留言。

二、Ollama的安装

安装Ollama的步骤相对简单,在这里我主要从两个方法:1、官方路径下载。2、百度网盘下载。方法一可以确保你载的一定是最新的,不过会有一些步骤。方法二则比较便捷。

1. 方法一:官网渠道安装

官方网页:https://ollama.com/download/windows
在这里插入图片描述

  1. 访问官方网站:打开浏览器,访问Ollama的官方网站。

  2. 注册并登录:进入官网后注册并登录

  3. 下载安装包:选择Windows,选择相应的安装包进行下载。

  4. 运行安装程序:下载完成后,运行安装包,按照提示完成安装即可没有什么需要特别注意的。在这里插入图片描述

  5. 验证安装:安装完成后,可以通过命令行输入ollama --version命令来验证是否安装成功。在这里插入图片描述
    注:官方的windows包不是很稳定,没登录载必报错。登录载概率报错。遇到一直这种情况,可以试试更换vpn的服务器。一直解决不了请采用方法二:百度网盘。

2. 方法二:百度网盘下载并安装

通过网盘分享的文件:OllamaSetup.exe
链接: https://pan.baidu.com/share/init?surl=H_gzQ5mQaGxx7cU5f6LPXw
提取码: 55kn
后面的第四步与第五步与方法一相同

三、Ollama的使用

1. 控制台使用

(1)拉取并运行模型

ollama run 目标模型:大小

比如:ollama run qwen2:0.5b
比如:ollama run llama3.1
在这里插入图片描述
我怎么知道目标模型有多少B,以及如何查看ollama支持哪些模型怎么安装呢?可以在ollama的models界面找模型,点进去可以看到这个模型的介绍以及有多少种型号:https://ollama.com/library
在这里插入图片描述

(2)查询目前ollama已下载的模型

ollama list

在这里插入图片描述

(3)查询模型信息

ollama show qwen2:0.5b

(4)删除模型

ollama rm qwen2:0.5b

2. REST API服务使用

(1)ollama 服务启动

在浏览器中输入http://localhost:11434
如果看到:Ollama is running
说明Ollama的服务已经自动启动成功,没有发生端口冲突导致的服务自动启动失败。
如果有异常,说端口冲突,(1)杀掉11434端口的进程。(2)修改ollama的服务监听端口。
针对(2)可以临时修改端口并启动服务:

set OLLAMA_HOST=127.0.0.1:11436
ollama serve 

(2)ollama服务使用

复制下面这一段curl指令在cmd中运行

curl http://localhost:11434/api/generate -d "{ \"model\": \"qwen2:0.5b\", \"prompt\": \"Why is the sky blue?\" }"

注1:注意curl的端口与ollama启动的端口对应。
注2:如果返回:{“error”:“model “qwen2:0.5b” not found, try pulling it first”}那是因为删除了,重新运行:ollama run qwen2:0.5b 拉取下载

更多API在文档:https://github.com/ollama/ollama/blob/main/docs/api.md

3. Python 调用

(1)ollama的库和工具

在成功安装olama之后,可以利用它提供的多个库和工具来扩展您的开发工作。ollama主要支持Pyhon和JavaScript两种编程语言的库分别是ollama-pythonollama-js,这两个库使得在相应的语言环境中使用ollama变得更加方便和高效。

(2)ollama-python使用

ollama-python 库提供了一个Python接口来与ollama交互,使得Python开发者可以轻松地在他们的项目中集成和运行大型语言模型。

ollama-python安装

pip install ollama

用法

import ollama
response = ollama.chat(model='llama3.1', messages=[
  {
    'role': 'user',
    'content': 'Why is the sky blue?',
  },
])
print(response['message']['content'])

流式处理响应
可以通过设置 来启用响应流式处理,修改函数调用以返回 Python 生成器,其中每个部分都是流中的一个对象。stream=True

import ollama

stream = ollama.chat(
    model='llama3.1',
    messages=[{'role': 'user', 'content': 'Why is the sky blue?'}],
    stream=True,
)

for chunk in stream:
  print(chunk['message']['content'], end='', flush=True)

注:更多示例请查看:https://pypi.org/project/ollama/
注:如果报错: raise ResponseError(e.response.text, e.response.status_code) from None
ollama._types.ResponseError,可以把梯子关掉再执行一次看看。

四、ollama web端

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
<think>好的,我现在要处理用户关于在Windows 11上安装使用Ollama以及通过命令行升级的问题。首先,我需要回顾用户提供的引用内容,确保信息准确。根据引用[2]和[3],Ollama现在支持Windows作为原生应用,需要NVIDIA显卡和相关驱动、CUDA工具链。用户可能对硬件和软件要求不太清楚,所以第一步应该详细列出这些要求。 接下来,安装步骤需要分点说明,引用[3]提到要安装NVIDIA驱动、CUDA Toolkit,然后是Ollama本身。可能需要指导用户到官方网站下载安装程序,并验证安装是否成功。引用[4]中提到在命令行输入ollama来确认安装,这部分需要包含进去。 然后是关于使用方法,用户可能需要知道如何拉取模型和运行模型。常见的命令如ollama run llama2需要示例出来,同时提醒用户可能需要替换模型名称。此外,OpenWebUI的配置也是用户关心的,引用[1]提到OpenWebUI调用DeepSeek-R1,这部分需要简要说明如何访问Web界面。 关于命令行升级,用户可能不熟悉如何通过命令更新Ollama,需要给出具体的命令步骤,比如停止服务、下载最新版、重新安装。同时,模型升级的命令也需要提及,比如ollama pull命令。 需要注意用户可能的误区,比如硬件是否满足,安装路径是否可以自定义。引用[2]指出安装时可以指定路径,但引用[3]中建议默认路径,可能需要提醒用户注意。此外,驱动和CUDA的版本兼容性也很重要,需要提醒用户确保版本匹配。 最后,生成相关问题时要覆盖常见疑问,比如性能优化、硬件兼容性、模型管理等,确保用户能找到进一步的信息。整个回答需要结构清晰,分步骤说明,避免使用专业术语过多,保持口语化但准确。</think>### Windows 11 下 Ollama 安装使用升级指南 #### 一、安装前准备 1. **硬件要求** - NVIDIA 显卡(建议 RTX 系列,显存 ≥8GB)[^3] - 磁盘空间 ≥40GB(推荐 SSD)[^3] - Windows 11 64 位系统[^2] 2. **软件依赖** - **NVIDIA 驱动**:需更新至最新版本[^3] - **CUDA Toolkit**:安装显卡驱动兼容的版本(如 CUDA 12.x)[^3] #### 二、安装步骤 1. **下载 Ollama** 访问[官网](https://ollama.ai/)下载 Windows安装程序。 2. **运行安装程序** - 双击安装包,选择自定义路径(默认路径为 `C:\Program Files\Ollama`) - 安装完成后,Ollama 服务会自动启动并在后台运行。 3. **验证安装** 打开命令行工具(CMD/PowerShell),输入以下命令: ```bash ollama --version ``` 若显示版本号(如 `ollama version 0.1.20`),则安装成功[^4]。 --- #### 三、基础使用方法 1. **拉取模型** 通过命令行下载预训练模型(以 `llama2` 为例): ```bash ollama pull llama2 ``` 2. **运行模型** ```bash ollama run llama2 ``` 输入提示词(如 "Hello")即可交互[^1]。 3. **通过 OpenWebUI 调用** - 访问 `http://localhost:11434` 使用 API - 结合 OpenWebUI 配置本地模型(如 DeepSeek-R1)实现可视化操作[^1]。 --- #### 四、命令行升级指南 1. **升级 Ollama 本体** - 停止当前服务: ```bash ollama stop ``` - 下载最新安装包并重新安装。 2. **升级模型** 拉取模型的最新版本: ```bash ollama pull llama2:latest ``` --- #### 五、注意事项 1. **路径问题**:安装时建议选择默认路径,避免权限冲突[^3]。 2. **GPU 兼容性**:若使用 AMD 显卡,需确认 Ollama 版本支持 Radeon GPU。 3. **模型管理**:可通过 `ollama list` 查看已下载模型,`ollama rm <模型名>` 删除旧版本。 --- §§ 相关问题 §§ 1. 如何解决 Ollama 安装后无法识别 NVIDIA 显卡的问题? 2. Ollama 支持哪些第三方大语言模型? 3. 如何在 Ollama 中实现多模型并行运行? 4. Ollama 的 API 如何其他开发工具(如 Python)集成? [^1]: Windows 11 下 Ollama 安装 OpenWebUI 调用 DeepSeek-R1 的详细指南 : OLLAMA win11安装完整指南(安装时指定路径) [^3]: ollama教程(window系统) [^4]: Ollama:实现本地AI大语言模型命令行启动的专业部署方案
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

风吹落叶花飘荡

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值