简单使用ollama

简单使用ollama

1 介绍

Ollama是一个开源的大型语言模型部署工具,它可以帮助用户快速在本地部署运行大模型。类似于Docker一样,仅仅用几行命令就可以运行一个大模型。

2 安装ollama

(1)参考网站

# 官网地址
https://ollama.com/

# Github地址
https://github.com/ollama/ollama

# 可使用的模型
https://ollama.com/library

(2)下载软件

# 下载地址
https://ollama.com/download

在这里插入图片描述

下载后一步步安装即可,自动会安装到C盘。

3 配置Ollama

由于Ollama在下载模型时,会自动下载到C盘,因此需要设置下载目录。方法如下:

设置模型下载路径

在环境变量中添加“OLLAMA_MODELS”,之后重启ollama,我把下载模型的目录设置在了"D:\ollama"目录下。

OLLAMA_MODELS

在这里插入图片描述

4 使用Ollama

使用帮助

ollama -h 

在这里插入图片描述

# 启动ollama
ollama serve

# 显示模型列表
ollama list

在这里插入图片描述

查看模型的信息

# 查看模型的
# '--license': 查看序列;
# '--modelfile':查看模型文件;
# '--parameters':查看模型参数;
# '--system':查看模型系统;
# '--template':查看模型模板
ollama show --modelfile qwen:0.5b

获取模型

# 拉取模型
ollama pull qwen:1.8b

# 推送模型
ollama push 

在这里插入图片描述

管理模型

# 拷贝一个模型
ollama cp qwen:0.5b my-qwen:0.5b

# 删除模型
ollama rm my-qwen:0.5b

运行模型

⚠️ 最常用,如果没有模型,会自动下载模型,默认的端口号是“11434”

ollama run qwen:0.5b 

使用生成的API访问

curl http://localhost:11434/api/generate -d '{
  "model": "qwen:0.5b",
  "prompt": "Why is the sky blue?",
  "stream": false
}'

在这里插入图片描述

使用对话的API访问

返回的是对话流。

curl http://localhost:11434/api/chat -d '{
  "model": "qwen:0.5b",
  "messages": [
    { 
        "role": "user", 
        "content": "why is the sky blue?" 
    }
  ]
}'

在这里插入图片描述

5 下载Qwen例子

(1)查找可用模型

# 可使用的模型
https://ollama.com/library

可以在模型库上查找需要的模型。

在这里插入图片描述

(2)下载Qwen1.5模型

在ollama的模型库上选择“qwen"

# Ollama上的仓库地址
https://ollama.com/library/qwen

在这里插入图片描述

选择简单的

ollama run qwen:0.5b
### 如何下载 Ollama 相关工具 对于想要获取 Ollama 及其周边工具的用户来说,有多种途径可以选择。 #### 下载 ollama-webui Web 工程代码 可以通过 Git 命令来克隆 `ollama-webui` 项目的仓库。这允许开发者基于该项目进行二次开发或是研究其实现细节。 ```bash git clone https://github.com/ollama-webui/ollama-webui-lite.git ``` 上述命令将会复制整个项目至本地文件夹内[^1]。 #### 获取 llamazing 应用程序 另一个选项是使用名为 `llamazing` 的应用程序,这是一个简易的网页端、UI 或应用前端接口用于操作 Ollama。可以从指定链接访问该工程: - [llamazing](https://gitcode.com/gh_mirrors/ll/llamazing) 此页面提供了有关如何设置以及使用的文档和支持材料[^2]。 #### 使用 ollama-tools 图形化管理工具 为了更便捷地管理和维护 Ollama 模型,还可以考虑安装 `ollama-tools` 这一图形界面工具。这款工具旨在简化对 Ollama 模型的操作流程,并提供了一系列实用的功能特性,尽管当前版本仍处于初期阶段[v1.0],已经实现了基础性的管理能力[^3]。 #### 官方推荐的 Ollama 安装方法 按照官方给出的方法来进行 Ollama 软件本身的安装是最直接的方式之一。具体步骤包括但不限于: - **从官方网站**:前往 Ollama 的官方网站寻找最新的发布版并依照提示完成下载过程; - **利用百度网盘**:作为备选方案,在某些情况下也可以借助国内常用的云存储平台——百度网盘来获得所需的安装包; 一旦完成了软件主体部分的安置工作之后,则需进一步调整系统的环境变量配置以确保后续能正常调用相关命令行工具(`ollama -v`)验证版本信息等[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值