轻松创建知识库:开源工具AnythingLLM

本文介绍了开源工具AnythingLLM,一个可定制的文档聊天机器人,能将文档转化为大语言模型的上下文。文章详细说明了如何在Linux系统上安装ollama和AnythingLLM,配置过程包括设置存储位置、选择本地模型、配置embedding以及使用LanceDB。作者还提供了使用和配置的步骤,以及参考链接。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

轻松创建知识库:开源工具AnythingLLM和ollama

简介

AnythingLLM 是一个开源的、可定制的、功能丰富的文档聊天机器人。它专为那些希望与之智能对话或利用现有文档构建知识库的任何人设计。

这是一个全栈应用程序,它能够将任何文档、资源或内容片段转化为大语言模型(LLM)在聊天中可以利用的相关上下文。该应用允许用户选择并配置要使用的LLM或向量数据库,并支持多用户管理及权限控制,以确保数据安全和高效协作。

github 地址:GitHub - Mintplex-Labs/anything-llm: A multi-user ChatGPT for any LLMs and vector database. Unlimited documents, messages, and storage in one privacy-focused app. Now available as a desktop application!

本地部署安装(linux 系统)

安装ollama

ollama 要安装最新版本,新版本支持embedding

curl -fsSL https://ollama.com/install.sh | sh

安装anythingllm

export STORAGE_LOCATION=$HOME/anythingllm && \
mkdir -p $STORAGE_LOCATION && \
touch "$STORAGE_LOCATION/.env" && \
docker run -d -p 3001:3001 \
--cap-add SYS_ADMIN \
-v ${STORAGE_LOCATION}:/app/server/storage \
-v ${STORAGE_LOCATION}/.env:/app/server/.env \
-e STORAGE_DIR="/app/server/storage" \
mintplexlabs/anythingllm:master

注意:Linux环境root权限下运行上述命令时会报错,要执行以下操作

问题参考:https://github.com/Mintplex-Labs/anything-llm/issues/426

chmod -R 777 ${STORAGE_LOCATION}

配置

打开界面 http://yourip:3001

本地模型选择ollama,配置一些简单信息

配置embedding,选择ollama,模型选择 nomic-embed-text:latest

vector database 选择 anythingllm 自带的 LanceDB.

以上便是主体配置

使用测试

导入个人文档

也可以添加web url,对web 界面内容问答

可对问答系统参数进行简单配置

更多anythingllm 使用和配置可参考官方文档:What is AnythingLLM

转自:轻松创建知识库:开源工具AnythingLLM - 知乎 

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值