Ollama+ page Assist或Ollama+AnythingLLM 搭建本地知识库

参考:【AI】10分钟学会如何用RAG投喂数据给你的deepseek本地模型?_哔哩哔哩_bilibili

方法一:Ollama + page Assist 本地知识库

***下方操作比较精简,详情参考:Ollama 部署本地大语言模型-CSDN博客

1.下载Ollama

2.Ollama安装两个模型

deepseek:人工智能模型

nomic-embed-text:文本嵌入模型

ollama pull deepseek-r1:7b
ollama pull nomic-embed-text

3.下载 page Assist

4.配置 page Assist

5.上传知识库

喂数据

6.对话框提问 

方法二:Ollama + AnythingLLM 本地知识库

Ollama的操作参考方法一的1、2步

1.下载AnythingLLM

https://anythingllm.com/

下载速度慢,可以去github下载(加上下载器)

 2.安装AnythingLLM

如果在安装窗口上再弹出一个窗口,显示下载ollama的库1.8G左右,点×。

进入界面,下一步(右箭头)

 

3.配置AnythingLLM

①设置中文 

 

 ②设置工作区的聊天模型

③设置代理配置 聊天模型 

④设置整体的嵌入引擎

 

 

 

4.喂数据

 

 5.测试

14B的模型及以上,结果会好一些,更准确一些,但是需要更高的电脑配置。

### 部署DeepSeek及其插件 对于希望在本地环境中部署DeepSeek并集成OllamaPage Assist插件的新手而言,理解整个过程至关重要。虽然具体的安装指南可能依赖于官方文档特定版本的要求[^1],下面提供了一个简化版的指导流程。 #### 准备工作环境 确保操作系统支持所需软件包的安装,并拥有管理员权限来执行命令。通常情况下,在Linux发行版上操作更为简便,因为大多数大数据工具都基于此平台进行了优化。 #### 安装必要的依赖项 在此之前,需下载并配置相应的资源库以便获取最新版本的相关组件。例如,通过YUM更新源可以方便地管理第三方仓库中的软件包: ```bash sudo yum install bootstrap.rpm ``` 这条指令会自动处理Cloudera远程Yum存储库的加入,从而使得后续Hadoop生态系统的组件更容易被找到和安装。然而,针对DeepSeek本身以及其特有的扩展模块如OllamaPage Assist,则需要访问不同的分发渠道者遵循开发者社区提供的指引。 #### 获取DeepSeek及相关插件 前往官方网站其他可信来源处下载适合当前计算节点架构(比如AMD64)的二进制文件。注意检查校验码以验证数据完整性。对于附加功能部分,同样要确认这些额外部件能够兼容所选的核心框架版本。 #### 执行安装脚本 一旦所有必需品准备就绪,按照提示运行安装程序。这一步骤可能会涉及到设置环境变量、初始化数据库连接以及其他定制化选项的选择。务必仔细阅读每一页说明文字,特别是当遇到涉及安全性和性能调优参数设定的时候。 #### 启动服务与测试连通性 完成上述步骤之后,启动各个子系统并通过浏览器界面者其他客户端工具尝试建立初步联系。如果一切正常运作的话,应该可以看到默认主页加载成功并且能响应基本查询请求。 #### 调整配置实现最佳体验 最后但并非最不重要的是,依据实际应用场景调整各项属性直至达到理想状态为止。这里不仅限于修改监听端口位置是启用更多高级特性;还包括定期备份重要资料以防意外丢失等问题发生。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值