基于 RAG 和 Agent 技术的混元大模型业务落地实践

目录

一、腾讯大语言模型应用场景
二、RAG 技术原理及应用实践
三、GraphRAG 在角色扮演场景中的应用
四、Agent 技术原理和应用

前排提示,文末有大模型AGI-CSDN独家资料包哦!

01

腾讯大语言模型应用场景

1. 核心应用场景

腾讯大模型技术的应用覆盖了多个业务场景,包括微信生态、社交内容、视频新闻、办公文档、游戏等。通过大模型,腾讯推动了业务场景的智能化与高效化应用。

核心业务场景包括:

  • 内容生成: 如文案生成(如广告文案)、评论辅助生成等。

  • 内容理解: 如文本审核、诈骗识别等。

  • 智能客服: 如知识问答、用户引导等。

  • 开发 Copilot:如代码评审自动化、自动生成测试用例等。

  • 角色扮演:如游戏场景中 NPC 的智能交互。

2. 大模型应用技术

腾讯在大模型应用中主要使用以下三种技术方式:

(1)SFT(Supervised Fine-Tuning)

  • 基于基座模型(如大语言模型)进行微调,结合业务专属数据,将特定领域的业务知识固化于模型中。

  • 优势:可直接实现针对性的任务回答与处理。

(2)RAG(Retrieval-Advanced Generation)

  • 结合外部知识库与检索技术,在生成内容时加入检索结果。

  • 应用场景:智能客服、文档助手等。

  • 优势:提供更高的可解释性,并显著减少幻觉现象(模型生成的虚假内容)。

(3)Agent(智能体)

  • 通过调用外部工具,支持模型进行复杂任务的推理、规划和执行。

  • 优势:适用于需要多步骤推理和执行的复杂任务场景。

3. 混元一站式大模型应用解决方案

腾讯通过混元大模型平台提供一整套从基础模型管理到复杂应用开发的支持体系,具体包括:

(1)基础模型管理与开发支持

  • 模型注册与管理:支持多类型基础模型(如 7B 模型、7B-MoE 模型等)。

  • 数据处理链路打通:覆盖数据抓取、清洗、模型训练、评测、部署与服务等完整流程。

(2)Agent 平台与扩展能力

功能支持

  • 集成 RAG 和 Agent 技术,支持索引与召回能力。

  • 用户可通过插件扩展与定义自有功能模块。

应用能力

  • 提供智能问答、角色扮演、自定义编排等解决方案。

  • 提供灵活交互界面,支持用户完成复杂业务应用的流程化部署。

02

RAG 技术原理及优化实践

在大模型技术快速发展的背景下,其直接应用于业务场景的过程中面临一些难以忽视的问题,如:

  • 幻觉问题:生成内容不准确或虚假,难以满足高可靠性场景需求。

  • 知识更新滞后:业务知识快速迭代,但模型更新周期较长,无法及时反映最新动态。

  • 可解释性与安全性:大模型的预测过程较为黑箱,难以提供足够的安全保障。

为应对上述挑战,RAG(Retrieval-Augmented Generation)技术通过结合检索与生成机制,为模型注入动态更新的外部知识,显著提高模型在复杂场景中的回答准确性与知识实时性。后文中将从技术原理、关键环节及实际应用出发,深入探讨 RAG 技术的优化方案和应用实践。

RAG 技术主要包含两个核心部分:

数据准备

  • 构建高质量的知识库。

  • 针对知识库构建召回索引及支持生成增强。

知识召回和生成增强

  • 用户提出问题后,将其转化为向量,结合知识库中的向量匹配,召回对应文档。

  • 基于召回的文档与问题生成准确且上下文相关的回答。

1. RAG 技术原理

整体链路与原则如下:

  • RAG 效果取决于全链路每一环节的优化,包括数据准备、索引构建、召回及生成环节。

  • 遵循**“Garbage in, garbage out”** 原则,只有确保链路每一步的数据和处理结果高质量,最终效果才会满足预期。

知识库与生成增强:

  • 知识库通过存储问题与相关文档,实现向量匹配的高效检索。

  • 基础模型以检索的文档为依据生成回答,确保生成结果具有高准确性和可靠性。

2. RAG 应用关键挑战

RAG 在实际应用中会面临诸多挑战。首先,原始文档格式多种多样,内容提取面临挑战;第二,如何对不同格式的文档进行切分,并保证语义完整性也是需要解决的一大问题;第三,需要考虑如何构建知识库;第四,需要保证文档召回率,召回的相关性,并在必要时融合多种召回技术;最后是如何让模型更好地生成内容。

(1)文档解析

技术手段:利用端到端模型对 PDF、Office 等文档进行视觉化编码和特征提取。

  • 输入:多种复杂文档格式(PDF、海报、杂志等)。

  • 输出:高质量提取的段落、表格、公式等内容。

优化点

  • 支持异构文档的解析。

  • 保证文档结构与语义的准确提取。

(2)文档切分

提供多种切分方式适配不同业务场景:

  • 固定长度切分: 按照字数限制(如 1024 字)进行切分。

  • 中文语义切分: 通过模型判断切分点,确保语义连贯。

  • Markdown 标题细分: 按 H1、H2、H3 等标题分层切分。

  • 递归文本切分: 根据语义和文档层次灵活调整切分方式。

实际挑战

  • 固定切分可能导致语义割裂。

  • 复杂文档需结合多种切分方式,确保内容完整性。

(3)离线知识扩充技术

  • DocQAGenerator:直接基于原始文档生成可能的 QA 对

  • AugmentedQuestionGenerator:在用户提供了<Question, Context>对的情况下,基于当前问题和上下文,为上下文生成更多可能的用户问题

  • AtomicUnitsQAGenerator:Atomic Units QA 的方法首先对原始文本进行分块,然后将块分解为原子陈述,再针对这些原子(以块为上下文)生成一组合成问题

知识库扩充方案:

  • 针对用户知识库数据有限的情况,提出知识库扩展方案:将文档内容切分为 Chunk;提取原子成分并生成对应问题;生成问答对,扩充知识库的覆盖范围。

成果:结合论文中提出的前沿方法,实现高效、精细化的知识库构建。

(4)索引召回

向量化技术:支持两种召回方式:

  • 基于 Transformer/BERT 的语义召回。

  • 基于 BM25(优化版 TF-IDF)的关键词召回。

(5)多路召回

融合多种来源的召回结果,包括:Vector DB(向量数据库)、ES(Elasticsearch),以及外部搜索引擎与 API。通过 Reranking 模型对召回结果进行重排和过滤,确保结果准确性和多样性。

(6)知识生成

Prompt 工程

  • 明确角色设定:为模型提供专家或工程师等明确身份背景。

  • 定义清晰的输入输出格式,避免歧义。

  • 提供示例数据(Few-shot),增强模型理解能力。

SFT (微调优化)

  • 从业务场景中收集样本数据。

  • 结合监督学习方法进行模型微调,进一步提升生成效果。

03

GraphRAG 在角色扮演场景中的应用

1. RAG 局限

在角色扮演场景中,RAG 存在如下一些局限性:

  • 缺乏全局信息:召回知识片段内容多为局部信息,缺乏全局关联,难以支持复杂知识问答。例如,回答“孙悟空的金箍棒是怎么来的?”时,传统 RAG 可能只提到“孙悟空从东海借金箍棒”,而无法完整呈现其背景故事。

  • 缺乏上下文关联:长文本中包含大量角色和关系,直接输入给模型会受到长度限制,无法生成准确答案。

  • 幻觉问题:传统技术可能生成不真实或虚构的回答,降低用户信任度。

为了解决这些问题,我们引入了 GraphRAG 技术。

  1. GraphRAG :基于图的检索增强方法

GraphRAG(Graph-based Retrieval-Augmented Generation)技术通过结合知识图谱构建与生成技术,为复杂知识场景中的问题解答提供了新的解决方案,特别是在长文本处理、关系推理和上下文理解等方面具有显著优势。

GraphRAG 技术通过知识图谱的构建和使用,实现了从知识提取到推理生成的全链路优化。其核心流程包括三部分:

(1)索引构建(Indexing)

  • 知识抽取:从小说或剧本中切分出语义片段,抽取实体、关系和社区信息。

  • 图谱构建:将这些内容组织为知识图谱,存储在图数据库中。

(2)检索(Retrieval)

  • 局部检索(Local Query):针对具体实体或关系进行检索,获取细节信息。

  • 全局检索(Global Query):检索整个图谱的社区结构与总结内容,提取高层次信息。

(3)生成(Generation)

  • 基于检索结果生成回答,提供清晰的溯源和逻辑推理能力。

3. 基于混元LLM构建图检索增强框架

混元 LLM 构建 GraphRAG 主要包括离线和在线两部分。

主要步骤

  • 语料切分

    对长文本如《西游记》或《长相思》进行内容切片(Chunking),以便模型处理。

  • 知识抽取

    使用大模型的 Prompt 对 Chunk 内容进行解析,提取以下信息:

    实体(Entity):如金箍棒、太上老君、孙悟空等。

    关系(Relation):如“炼制”“使用”“借用”等。

    社区(Community):如金箍棒在故事中的完整链条。

  • 图谱构建

    将抽取的实体、关系、社区等组织成图谱,存储在图数据库中。

    通过嵌入(Embedding)优化查询效率。

  • 在线检索与生成

    问题解析

  • 用户问题触发 Local 和 Global 两种检索方式。

  • Local Query:针对单个实体的细节信息检索。

  • Global Query:获取高层次社区总结,描述全局关系。

    内容整合与生成

  • 模型结合 Local 和 Global 检索内容,生成准确的回答。

  • 在全局检索中,通过 Reduce 机制对 Community Report 进行排序和整合,进一步提升回答连贯性。

    回答特点

  • 准确性:基于图谱的推理与生成,更接近真实。

  • 透明性:提供回答溯源,减少幻觉现象。

4. 角色扮演场景介绍

在角色扮演中,GraphRAG 技术被用于以下场景:

  • 角色特点还原

    支持长文本内容分析,细化角色背景。

    如通过《长相思》的剧本内容,生成符合角色设定的回答。

  • 多角色互动

    准确理解角色间复杂关系,如感情纠葛、合作或冲突等。

  • 任务指导

    在游戏中引导玩家完成复杂任务,提供清晰逻辑线索

04

Agent 技术原理和应用

1. Agent 应用场景

  • 目标驱动:首先通过用户的问题引导整个过程,比如用户希望根据天气情况安排一场预算不超过一万元的三天深圳旅游。问题涉及多个因素如日期、天气、预算等,系统需要理解这些信息并进行思考、推断。

  • 外部工具的使用:为了执行任务,模型会调用外部工具,如天气查询、预算计算器、旅游产品查询和购买工具等。这些工具可以帮助系统更好地理解用户需求,并提供更加精准的解决方案。

  • 智能迭代:通过不断的理解和推理,系统会执行相关的操作并通过迭代逐步完成任务,使得过程更加智能,并具备动态规划的能力。

2. Agent 技术原理

核心功能:Agent 技术结合了推理(Reasoning)和行动(Action),模型在执行任务前进行推理,并根据推理结果执行相应的行动。

3. Agent 在混元中的实现

角色定义

  • 用户(User):与系统交互的外部角色。

  • 计划者(Planner):负责推理任务的角色,首先判断任务是否完整,若信息不全则会反问用户获取补充信息,并通过推理计划下一步操作。

  • 工具(Tool):用于执行外部任务的工具,如天气查询或产品购买工具。

    Agent 流程

  • 反复推理与执行:任务通过多轮推理和执行外部工具得以推进。例如,任务可能包括天气查询或旅游产品购买,系统会通过外部工具获取结果,并进行进一步推理,最终返回答案给用户。

  • 动态规划:系统会根据执行过程的反馈动态调整计划,逐步优化解决方案。

4. Agent 应用案例

业务背景:腾讯云通过代理技术支持多个合作伙伴,帮助其提升用户体验和工作效率。通过与外部工具结合,平台能够在复杂任务中灵活调度和执行,自动化处理各类任务。

技术优势

  • 复杂问题处理:相比传统的搜索技术,Agent 技术能处理更为复杂的需求,结合外部数据库查询或 API 调用获取信息。

  • 插件支持:平台支持插件定义,能通过外部工具扩展系统功能,提高任务处理的灵活性和效率。

5. 总结

  • 用户体验提升:过去用户需要适应机器的输入要求,现在系统能够理解自然语言的复杂需求,提供更加直观和舒适的交互方式。

  • 智能化和人格化:随着系统智能化的提高,用户感知到的互动更具人性化,甚至能产生与真人交互的错觉。

  • 知识处理的多模态化:原本结构化的知识转向半结构化、非结构化,甚至是多模态的知识处理,提升了系统的智能程度。

  • 自主决策能力:随着技术的发展,模型将具备更强的决策能力,未来在某些情况下,机器的决策可能优于人类。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值