RAGFlow完全指南:从0到1搭建RAG知识库,一篇文章全面掌握!非常详细收藏这一篇就够了!

前言

最近随着Deepseek的火爆,如何高效地整合海量数据与生成式模型成为了技术领域内的一大热点。传统的生成模型在回答复杂问题时常常依赖于预训练数据的广度与深度,而检索增强生成(Retrieval-Augmented Generation,简称RAG)则有效结合了检索与生成的优势,为各类应用场景提供了更为灵活、高效的解决方案。

RAGFlow概述

RAGFlow的定义

RAGFlow是一种融合了数据检索与生成式模型的新型系统架构,其核心思想在于将大规模检索系统与先进的生成式模型(如Transformer、GPT系列)相结合,从而在回答查询时既能利用海量数据的知识库,又能生成符合上下文语义的自然语言回复。该系统主要包含两个关键模块:数据检索模块和生成模块。数据检索模块负责在海量数据中快速定位相关信息,而生成模块则基于检索结果生成高质量的回答或文本内容。

在实际应用中,RAGFlow能够在客户服务、问答系统、智能搜索、内容推荐等领域发挥重要作用,通过检索与生成的双重保障,显著提升系统的响应速度和准确性。

特点
  • 高效整合海量数据:借助先进的检索算法,系统能够在大数据中迅速找到相关信息,并将之用于生成回答。

  • 增强生成质量:通过引入外部数据,生成模块能够克服模型记忆限制,提供更为丰富和准确的信息。

  • 应用场景广泛:包括但不限于在线问答系统、智能客服、知识库问答、个性化推荐等。

RAGFlow应用场景

在在线客服系统中,RAGFlow能够利用用户的历史咨询记录、产品文档以及FAQ等数据,实时检索出最相关的信息,并通过生成模块整合成自然、连贯的回复,从而大幅提升客户满意度。

RAGFlow系统架构

317212466-d6ac5664-c237-4200-a7c2-a4a00691b485

环境准备与系统搭建

环境需求

在搭建RAGFlow系统前,需要确保开发与运行环境满足以下要求:

  • 硬件配置:建议采用多核CPU、充足内存(16GB及以上)以及支持高并发访问的存储设备;如需部署大规模检索服务,可考虑使用分布式存储集群。

  • 操作系统:推荐使用Linux发行版(如CentOS、Ubuntu)以便于Shell脚本自动化管理;同时也支持Windows环境,但在部署自动化脚本时可能需要适当调整。

  • 开发语言与工具:主要使用Java进行系统核心模块开发,同时结合Shell脚本实现自动化运维。

  • 依赖环境:需要安装Java 8及以上版本,同时配置Maven或Gradle进行依赖管理;对于数据检索部分,可采用ElasticSearch、Apache Solr等开源检索引擎;生成模块则依赖于预训练模型,可以借助TensorFlow或PyTorch进行实现。

服务器配置
  • CPU >= 4 核

  • RAM >= 16 GB

  • Disk >= 50 GB

  • Docker >= 24.0.0 & Docker Compose >= v2.26.1

安装
修改 max_map_count

确保 vm.max_map_count 不小于 262144

如需确认 vm.max_map_count 的大小:

$ sysctl vm.max_map_count

如果 vm.max_map_count 的值小于 262144,可以进行重置:

# 这里我们设为 262144:   $ sudo sysctl -w vm.max_map_count=262144

你的改动会在下次系统重启时被重置。如果希望做永久改动,还需要在 /etc/sysctl.conf 文件里把 vm.max_map_count 的值再相应更新一遍:

vm.max_map_count=262144

下载仓库代码
git clone https://github.com/infiniflow/ragflow.git

Docker拉取镜像

修改镜像为国内镜像并且选择embedding版本

修改文件docker/.env/

默认配置为:RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0-slim

修改为国内镜像:RAGFLOW_IMAGE=registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow:v0.16.0

RAGFlow image tagImage size (GB)Has embedding models?Stable?
v0.16.0≈9✔️Stable release
v0.16.0-slim≈2Stable release
nightly≈9✔️Unstable nightly build
nightly-slim≈2Unstable nightly build

运行命令拉取镜像

docker compose -f docker/docker-compose.yml up -d

image-20250218134526193查看日志

docker logs -f ragflow-server

提示下面提示说明启动成功

     ____   ___    ______ ______ __
    / __ \ /   |  / ____// ____// /____  _      __
   / /_/ // /| | / / __ / /_   / // __ \| | /| / /
  / _, _// ___ |/ /_/ // __/  / // /_/ /| |/ |/ /
 /_/ |_|/_/  |_|\____//_/    /_/ \____/ |__/|__/

 * Running on all addresses (0.0.0.0)
 * Running on http://127.0.0.1:9380
 * Running on http://x.x.x.x:9380
 INFO:werkzeug:Press CTRL+C to quit

访问IP,进入 RAGFlow,注意不是 9380 端口,Web是http://127.0.01默认为 80 端口

image-20250218135456390

应用

注册账号

image-20250218135625403

注册完直接登录

image-20250218135717184

添加模型

本文用到的模型类型:Chat 和 Embedding。 Rerank 模型等后续在详细介绍。

点击右上角->模型提供商->添加模型

image-20250219161523490

填写模型信息,模型类型选 chat

image-20250219161441642

再添加一个 Embedding 模型用于知识库的向量转换(RAGFlow 默认也有 Embedding)

image-20250219161827675

在系统模型设置中配置聊天模型嵌入模型为我们刚刚添加的模型

image-20250219163114721

创建知识库

image-20250219162148401

填写相关配置

  • 文档语言:中文

  • 嵌入模型:选择我们自己运行的bge-m3:latest,也可以用默认的。具体效果大家自行评估

image-20250219162457976

上传文件

这里我自己造了一个测试文档来验证知识库,内容是编的,介绍一个 ABCD 工具,文档在文末提供下载。

image-20250219162616449

image-20250219162528361

文件上传后是未解析状态,需要解析才可以使用,点击解析

image-20250219162738069

解析成功后点击文件可以看到解析效果

image-20250219162906257

效果

image-20250219162931748

创建聊天

image-20250219163339314

设置模型。token 调整大一些

image-20250219163408611

验证效果
问题一:直接发送 ABCD

知识库回答

image-20250219163519619

原文档

image-20250219163648682

问题二:ABCD 错误代码有哪些

知识库回答

image-20250219164100751

原文档

image-20250219164043103

问题三:ABCD 支持哪些系统

知识库回答

image-20250219164230807

原文档

image-20250219164256131

问题四:ABCD 官网

知识库回答

image-20250219164944000

你也可以在回答的结果看到他引用的知识库

image-20250219165026381

原文档

image-20250219165057019

总结

本文介绍了 RAGFlow 的基础使用方法,从演示效果来看尚可。然而,在实际应用场景中,各类文件格式与结构各不相同,文件解析成为一大难题。一旦解析不准确,即便使用性能强劲的 Deepseek-R1 大模型(经亲测),也会出现分析错误的情况。因此,在 RAG 过程中,文件解析、Embedding 以及 LLM 是提升准确率的三大关键攻克点。

最后的最后

感谢你们的阅读和喜欢,作为一位在一线互联网行业奋斗多年的老兵,我深知在这个瞬息万变的技术领域中,持续学习和进步的重要性。

为了帮助更多热爱技术、渴望成长的朋友,我特别整理了一份涵盖大模型领域的宝贵资料集。

这些资料不仅是我多年积累的心血结晶,也是我在行业一线实战经验的总结。

这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。如果你愿意花时间沉下心来学习,相信它们一定能为你提供实质性的帮助。

AI大模型学习路线

如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!

扫描下方csdn官方合作二维码获取哦!

在这里插入图片描述

这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!

请添加图片描述
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

100套AI大模型商业化落地方案

请添加图片描述

大模型全套视频教程

请添加图片描述

200本大模型PDF书籍

请添加图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

LLM面试题合集

请添加图片描述

大模型产品经理资源合集

请添加图片描述

大模型项目实战合集

请添加图片描述

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值