LLAMA3.1 8B 本地部署并配合Obsidian建立本地AI知识管理系统

目前,LLAMA3.1模型分为8B、70B、405B三个版本,其中70B和405B对于显存的要求均已超过了一般家用电脑的配置(或者换个说法,用一张4090也是带不起来的),所以运行8B即可。LLAMA3.1 8B的性能约相当于ChatGPT3.5。

经过我的测试4080、2080、intel ultra 9 185H(无独立显卡,其能力约相当于1060)都是可以带得动8B模型的,当然显卡越好,响应的速度越快。

1、安装Ollama

Ollama是专门为本地化运行大模型设计的软件,可以简便运行很多开源大模型
去官网下载Ollama软件:

https://ollama.com/ 

2、设置环境变量

可以直接在CMD中通过set命令设置

set OLLAMA_HOST=127.0.0.1
set OLLAMA_MODELS=d:\ollama\models
set OLLAMA_ORIGINS=app://obsidian.md*

其中,OLLAMA_HOST可以设置为127.0.0.1(本机) 或者0.0.0.0(任意)
OLLAMA_MODELS用于设置模型位置,如果设置了这个环境变量的话,则下载回来的模型会保存在后面设定的位置,如果没设置这个环境变量的话,则会默认保存在

C:\Users\你的用户名\.ollama\models

OLLAMA_ORIGINS用于连接obsidian笔记

3、下载并运行模型

先下载一个用于上载笔记内容至Ollama的模型

ollama pull nomic-embed-text

直接在CMD中使用命令进行下载

ollama run llama3.1:8b

第一次运行的时候会自动下载训练好的模型文件,后续使用不会重复下载。
但是每次使用的时候都需要执行一次

ollama run llama3.1:8b

如果下载过程中出现提示网络错误,则可以尝试使用特殊的上网方式或者去可下载的电脑上下载回来模型文件并拷贝到环境变量中设置的models文件位置中使用

4、OBSIDIAN安装

去其官网下载安装即可,无特殊要求

https://obsidian.md/

5、安装copilot插件

在Obisdian的设置——第三方插件——关闭安全模式——社区插件市场——浏览——搜索输入copilot,选择作者是logan yang的那个,然后安装——启用,即可

随后还是在第三方插件中,点开copilot的设置。
主要有以下几处

  1. 在最顶端 Default Model——选择OLLAMA(LOCAL)
  2. 在QA settings里面 Embedding Models——选择ollama-nomic-embed-text
  3. 在接近最下面的地方 Ollama model——手工输入 llama3.1:8B

最后去最上方点 save and reload

6、使用

在obsidian左侧点击copilot小图标,右侧出现窗口,就可以使用copilot了。

可以在三种模式中切换,chat就是一般的对话模式,long note QA是针对单篇笔记的问答模式,vault QA是针对整个笔记库的问答模式。

使用QA模式时,应先点击一下右边的拼图形状的图标,载入当前笔记,后针对性提问,美中不足是它在针对笔记的问题回答时只能使用英文回答。

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值