超详细,用 CherryStudio 搭建本地知识库

Cherry Studio 0.9.1更新后有一个知识库功能,我们可以使用 硅基+Cherry Studio 来实现本地知识库,帮你更好的获取需要的内容,体验AI强大的功能。

1、首先去 硅基(点我去注册) 注册个账号,注册成功后你会获得14R(2000W Token)

2、安装 CherryStudio 客户端,官网提供了全平台 Mac/Win/Linux 客户端

硅基(点我去注册)
在这里插入图片描述

点击API秘钥-新建API 密钥,名字随便。
在这里插入图片描述
然后点击 API 秘钥,会自动复制,拿到API秘钥后到CherryStudio客户端内,点击左下角 设置
在这里插入图片描述
然后点击底部的 管理按钮,我们需要添加嵌入式模型,否者无法使用本地知识库功能。
在这里插入图片描述
选择BAAI/bge-m3模型就可以
在这里插入图片描述
在这里插入图片描述
点击知识库,添加知识库,随便命名,然后上传知识库文件

在这里插入图片描述
在助手中添加新的助手,然后选中助手,编辑助手,选择模型和本地的知识库,如下图
在这里插入图片描述
之后就可以愉快的聊天了

### CherryStudio Ollama 本地知识库安装配置使用教程 #### 安装准备 为了顺利搭建基于CherryStudio和Ollama的本地知识库环境,需先完成基础组件的安装。访问Ollama官方网站获取最新版本的ollama客户端[^3]。 ```bash # 访问并下载 ollama 客户端 https://ollama.com/ ``` 接着通过命令行工具执行特定指令来拉取所需的深度学习模型`deepseek-r1`以及文本嵌入模型`nomic-embed-text`: ```bash # 下载 deepseek 模型 ollama run deepseek-r1:1.5b # 获取 nomic 文本嵌入模型 ollama pull nomic-embed-text ``` 对于Cherry Studio客户端,则可通过其官方网址获得最新的安装包进行安装。 ```bash # 访问 Cherry Studio 并下载对应平台的应用程序 https://cherry-ai.com/ ``` #### 配置过程 一旦上述软件都已成功安装,在启动之前还需要做一些必要的初始化工作以确保各部分能够协同运作良好。这通常涉及到指定所使用的AI模型路径、定义数据存储位置以及其他可能影响性能表现的关键参数设定等操作。具体步骤可以参照文档说明或按照提示逐步完成设置流程[^2]。 #### 使用指南 当一切就绪之后就可以开始利用这套系统来进行各种自然语言处理任务了。比如可以通过上传文件至本地服务器建立专属的知识图谱;也可以直接输入查询语句让机器理解上下文含义从而给出精准的回答等等。值得注意的是,由于采用了先进的算法和技术手段,因此整个交互体验将会更加流畅高效[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值