Ollama |安装以及使用初级探索


本文主要是为了复现GraphRAG+LangChain+Ollama的一个项目,浅浅记录一下,在微信公众号文章看到该项目的介绍: 文章,相应的GitHub代码在这里: 代码

Ollama

简单介绍及安装配置

在这里插入图片描述

Ollama是一种用于在本地管理和部署大模型的工具。它的安装和配置参考了这些文章:第一篇第二篇第三篇
Ollama官网上下载安装包,安装时没法选盘,默认就是C盘,但模型存储位置可以通过配置环境变量换位置,增加一个系统变量OLLAMA_MODELS,将其设置为D:\Ollama。(但是我的模型下载后也没有再对应的位置,很迷…我再看看)
在这里插入图片描述

常用的一些命令

更多请参考上面的第三篇或者其他官方文档。
在这里插入图片描述

命令作用
ollama list展示本地大模型列表
ollama rm 本地模型名称删除单个本地大模型
ollama run 本地模型名启动本地模型
ollama ps查看本地运行中模型列表
ollama pull 本地/远程仓库模型名称下载或者更新本地大模型
ollama cp 本地存在的模型名 新复制模型名复制本地大模型

llama3.1:8b下载例子

在这里插入图片描述
不要忘记模型名称和指定参数规模中间的 ’ '。
模型下载中be like:
在这里插入图片描述
下载完成be like:
在这里插入图片描述

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值