本地知识库搭建完全指南

本地知识库搭建完全指南

📝 概述

本文将详细介绍如何搭建本地知识库,主要分为两个核心步骤:

  1. 安装并配置 Ollama
  2. 安装并设置 AnythingLLM

🚀 第一步:安装 Ollama

在这里插入图片描述

1. Windows 系统安装指南

💡 按照以下步骤在 Windows 系统上安装 Ollama:

  1. 下载安装包

  2. 执行安装

    • 双击运行 OllamaSetup.exe
    • 按提示完成安装
    • 自定义安装路径(可选):OllamaSetup.exe /DIR="d:\some\location"
  3. 验证安装

    • 打开命令提示符或 PowerShell
    • 运行 ollama --version
    • 显示版本号即表示安装成功

2. macOS 系统安装指南

  1. 下载安装包

  2. 执行安装

    • 双击解压安装包
    • 按提示完成安装
  3. 验证安装

    • 打开终端
    • 运行 ollama --version
    • 显示版本号即表示安装成功

3. Linux 系统安装指南

  1. 下载并安装

    • 访问 Ollama 官方网站
    • 运行安装命令:
      curl -fsSL https://ollama.com/install.sh | bash
      
  2. 验证安装

    • 运行 ollama --version
    • 显示版本号即表示安装成功

4. Docker 安装方式

# 1. 拉取镜像
docker pull ollama/ollama

# 2. 运行容器
docker run -p 11434:11434 ollama/ollama

# 3. 访问服务
# 浏览器访问 http://localhost:11434

⚙️ Ollama 环境变量配置

如果遇到 ollama --version 命令不正常,通常是因为环境变量未正确配置

Windows 系统配置
  1. 定位安装路径

    • 默认路径:{install-drive}:\Program Files\Ollama\
    • 或自定义安装路径
  2. 添加环境变量

    • 打开系统环境变量设置
    • 在 Path 变量中添加 Ollama 的 bin 目录
    • 例如:D:\Ollama\bin
Linux/macOS 系统配置
  1. 编辑配置文件

    # Linux:编辑 ~/.bashrc 或 ~/.zshrc
    # macOS:编辑 ~/.bashrc 或 ~/.zshrc
    nano ~/.bashrc
    
  2. 添加环境变量

    export PATH=$PATH:/path/to/ollama/bin
    
  3. 使配置生效

    source ~/.bashrc  # 或 source ~/.zshrc
    

📥 Ollama 模型下载

  1. 安装 deepseek-r1:14b 模型

    ollama run deepseek-r1:14b
    
  2. 安装 embedder 模型

    ollama pull bge-m3
    

💡 默认访问地址:http://127.0.0.1:11434
在这里插入图片描述


🎯 第二步:安装 AnythingLLM

系统要求

  • 硬件配置
    • 最低内存:8GB
    • 推荐内存:16GB 或以上
  • 软件依赖
    • Ollama 已安装
    • Ollama 模型正常运行

Windows 系统安装步骤

在这里插入图片描述

  1. 下载安装包

  2. 安装与配置

    • 运行安装程序
    • 按提示完成安装
    • 启动 AnythingLLM 应用
  3. 初始化设置

    • 选择 Ollama 作为模型提供商
    • 配置向量数据库(推荐 LanceDB)
    • 创建工作区

macOS 系统安装步骤

  1. 下载安装包

  2. 安装步骤

    • 打开 DMG 文件
    • 拖入应用程序文件夹
    • 启动应用
  3. 初始化设置

    • 选择 Ollama 作为模型提供商
    • 配置向量数据库
    • 创建工作区

Linux 系统安装步骤

  1. 下载安装包

  2. 安装命令

    # Debian 系统
    sudo dpkg -i anythingllm.deb
    
    # Red Hat 系统
    sudo rpm -ivh anythingllm.rpm
    
  3. 启动与配置

    • 运行 anythingllm 命令
    • 完成初始化配置

Docker 版本安装

# 1. 克隆仓库
git clone https://github.com/Mintplex-Labs/anything-llm.git
cd anything-llm

# 2. 启动服务
docker-compose up -d

# 3. 访问应用
# 浏览器访问 http://localhost:3000

🎮 AnythingLLM 使用流程

  1. 系统配置

    • 确认 Ollama 服务正常运行
    • 检查模型可用性
      在这里插入图片描述
      2.设置Anythingllm
      在这里插入图片描述
      在这里插入图片描述
  2. 创建工作区

    • 设置工作区名称
    • 配置工作区参数
      在这里插入图片描述
  3. 模型设置

    • 选择已下载的 Ollama 模型
    • 调整模型参数
      在这里插入图片描述
  4. 上传文档

    • 支持多种文档格式
    • 自动进行向量化处理
      在这里插入图片描述
  5. 知识库查询

    • 输入查询问题
    • 获取基于知识库的回答
      在这里插入图片描述

🔔 注意:请确保按照顺序完成每个步骤,这样可以确保知识库的正常运行。

📚 参考资源

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值