一文了解什么是 RAG?为什么需要 RAG?RAG 的流程!

一、什么是 RAG?

RAG 全称 Retrieval-Augmented Generation,翻译成中文是检索增强生成。检索指的是检索外部知识库,增强生成指的是将检索到的知识送给大语言模型以此来优化大模型的生成结果,使得大模型在生成更精确、更贴合上下文答案的同时,也能有效减少产生误导性信息的可能。

二、为什么需要 RAG?

之所以需要 RAG,是因为大语言模型本身存在一些局限性。

1.时效性

模型的训练是基于截至某一时间点之前的数据集完成的。这意味着在该时间点之后发生的任何事件、新发现、新趋势或数据更新都不会反映在模型的知识库中。例如,我的训练数据在 2023 年底截止,之后发生的事情我都无法了解。另外,大型模型的训练涉及巨大的计算资源和时间。这导致频繁更新模型以包括最新信息是不现实的,尤其是在资源有限的情况下。

2.覆盖性

虽然大模型的训练数据集非常庞大,但仍可能无法涵盖所有领域的知识或特定领域的深度信息。例如,某些专业的医学、法律或技术问题可能只在特定的文献中被详细讨论,而这些文献可能未被包括在模型的训练数据中。另外,对于一些私有数据集,也是没有被包含在训练数据中的。当我们问的问题的答案没有包含在大模型的训练数据集中时,这时候大模型在回答问题时便会出现幻觉,答案也就缺乏可信度。

由于以上的一些局限性,大模型可能会生成虚假信息。为了解决这个问题,需要给大模型外挂一个知识库,这样大模型在回答问题时便可以参考外挂知识库中的知识,也就是 RAG 要做的事情。

三、RAG 的流程

RAG 的中文名称是检索增强生成,从字面意思来理解,包含三个检索、增强和生成三个过程。

  • 检索: 根据用户的查询内容,从外挂知识库获取相关信息。具体来说,就是将用户的查询通过嵌入模型转换成向量,以便与向量数据库中存储的知识相关的向量进行比对。通过相似性搜索,从向量数据库中找出最匹配的前 K 个数据。

  • 增强: 将用户的查询内容和检索到的相关知识一起嵌入到一个预设的提示词模板中。

  • 生成: 将经过检索增强的提示词内容输入到大语言模型(LLM)中,以此生成所需的输出。 流程图如下所示:

简单示例

在下面这个简单示例中,我们使用 Elasticsearch 作为存储向量的数据库。使用讯飞的星火大模型来进行问题的回答。具体代码如下:连接本地的 Elasticsearch 数据库

import os   from elasticsearch import Elasticsearch   from dotenv import load_dotenv         load_dotenv()      client = Elasticsearch(       "https://localhost:9200",       ssl_assert_fingerprint=os.environ["CERT_FINGERPRINT"],       basic_auth=("elastic", os.environ["ELASTIC_PASSWORD"])   )   

加载向量模型

from sentence_transformers import SentenceTransformer      model = SentenceTransformer("./stella-base-zh-v3-1792d")   

创建索引

client.indices.create(index = "rag_tutorial_vector_index",                         mappings = {                             'properties': {                                 'embedding': {                                     'type': 'dense_vector'                                 }                             }                         })   

读取本地的文本文件并进行切分,然后向索引中添加数据

from langchain.text_splitter import RecursiveCharacterTextSplitter      with open("patent.txt", "r") as fp:       text = fp.read()              text_splitter = RecursiveCharacterTextSplitter(chunk_size = 200, chunk_overlap=50)       chunks = text_splitter.create_documents([text])       doc = {}              for doc_id, chunk in enumerate(chunks):           chunk_embedding = model.encode(chunk.page_content, normalize_embeddings=True)           doc['text'] = chunk.page_content           client.index(               index = "rag_tutorial_vector_index",               id = doc_id,               document = {                   **doc,                   "embedding": chunk_embedding               }           )   

使用查询从向量数据库中检索数据

query = "本次专利法修改对于更好地鼓励医药产业创新,有哪些新规定?"   query_embedding = model.encode(query, normalize_embeddings=True)      resp_vector = client.search(       knn = {           'field': 'embedding',           'query_vector': query_embedding,           'num_candidates': 10,           'k': 3       },       min_score = 0.8,       size = 3,       index = 'rag_tutorial_vector_index'   )   

将检索的结果进行汇总

retrieval_content = ""   for hit in resp_vector['hits']['hits']:       retrieval_content += hit['_source']['text']   

将检索到的结果送到星火大模型,并输出结果

import os   from sparkai.llm.llm import ChatSparkLLM, ChunkPrintHandler   from sparkai.core.messages import ChatMessage   from dotenv import load_dotenv         load_dotenv()      if __name__ == '__main__':       spark = ChatSparkLLM(           spark_api_url=os.environ["SPARKAI_URL"],           spark_app_id=os.environ["SPARKAI_APP_ID"],           spark_api_key=os.environ["SPARKAI_API_KEY"],           spark_api_secret=os.environ["SPARKAI_API_SECRET"],           spark_llm_domain=os.environ["SPARKAI_DOMAIN"],           streaming=False,       )              prompt = f"""                 你是一个善于回答问题的助手。请使用以下提供的检索内容和自身知识来回答问题。如果你不知道答案,请直接说不知道,不要杜撰答案。请用三句话以内回答,保持简洁。                    问题:{query}                    检索内容:{retrieval_content}                 """              messages = [ChatMessage(           role = "user",           content = prompt       )]       handler = ChunkPrintHandler()       a = spark.generate([messages], callbacks=[handler])       print(a.generations[0][0].text)   

总结

本文从大模型的局限性切入,探讨了检索增强生成架构的核心机制及其带来的好处。RAG 通过结合检索和生成能力,能从外部知识库搜索相关信息,生成更准确的回应,有效克服了大模型在知识更新上的短板。


最后

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频,免费分享!

一、大模型全套的学习路线

L1级别:AI大模型时代的华丽登场
L2级别:AI大模型API应用开发工程
L3级别:大模型应用架构进阶实践
L4级别:大模型微调与私有化部署

在这里插入图片描述

达到L4级别也就意味着你具备了在大多数技术岗位上胜任的能力,想要达到顶尖水平,可能还需要更多的专业技能和实战经验。

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述

三、大模型经典PDF书籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

在这里插入图片描述

四、AI大模型商业化落地方案

在这里插入图片描述

作为普通人在大模型时代,需要不断提升自己的技术和认知水平,同时还需要具备责任感和伦理意识,为人工智能的健康发展贡献力量。

有需要全套的AI大模型学习资源的小伙伴,可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

如有侵权,请联系删除。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值