本文主要是为了复现GraphRAG+LangChain+Ollama的一个项目,浅浅记录一下,在微信公众号文章看到该项目的介绍: 文章,相应的GitHub代码在这里: 代码。
Ollama
简单介绍及安装配置

Ollama是一种用于在本地管理和部署大模型的工具。它的安装和配置参考了这些文章:第一篇 、第二篇和第三篇。
Ollama官网上下载安装包,安装时没法选盘,默认就是C盘,但模型存储位置可以通过配置环境变量换位置,增加一个系统变量OLLAMA_MODELS,将其设置为D:\Ollama。(但是我的模型下载后也没有再对应的位置,很迷…我再看看)

常用的一些命令
更多请参考上面的第三篇或者其他官方文档。

| 命令 | 作用 |
|---|---|
| ollama list | 展示本地大模型列表 |
| ollama rm 本地模型名称 | 删除单个本地大模型 |
| ollama run 本地模型名 | 启动本地模型 |
| ollama ps | 查看本地运行中模型列表 |
| ollama pull 本地/远程仓库模型名称 | 下载或者更新本地大模型 |
| ollama cp 本地存在的模型名 新复制模型名 | 复制本地大模型 |
llama3.1:8b下载例子

不要忘记模型名称和指定参数规模中间的 ’ : '。
模型下载中be like:

下载完成be like:


3973

被折叠的 条评论
为什么被折叠?



