RAG效果不好怎么办?试试这八大解决方案(含代码)

随着自然语言处理(NLP)技术的飞速发展,构建高效的信息检索系统已成为许多企业和开发者的重要需求。LangChain 是一个强大的框架,旨在帮助开发者快速构建和优化基于大型语言模型(LLM)的应用程序。其中检索器是 LangChain 提供的一个核心接口,它可以根据用户的非结构化查询返回相关的文档。每种检索器都有其独特的应用场景和优势,本文将详细介绍 LangChain 中的几种检索器及其应用场景和解决方案,并提供相应的代码示例,帮助开发者将这些技术应用到实际的业务场景中。

一、向量存储检索器

向量检索器是一种基于向量空间模型的检索器,它通过计算查询和文档之间的相似度来实现检索。每个文档和查询都会通过嵌入模型(如 OpenAI Embedding)转换为向量表示,然后通过计算向量之间的相似度(如余弦相似度)来判断文档与查询的相关性。

假设你是一家电商平台的开发者,负责开发一个商品搜索功能,帮助用户快速找到相关商品。你可以使用向量存储检索器来实现这一功能,通过计算商品描述与用户查询之间的相似度,精准返回相关的商品信息。

1.1、解决方案
  • 快速搭建信息检索系统,特别是在处理大量非结构化文本数据时。

  • 通过文本嵌入来计算文档之间的相似度,提升检索的准确性和效率。

1.2、工作原理

  • 文本嵌入:将文本数据转换为向量表示(嵌入),通常使用预训练的语言模型(如 OpenAI 的 Embeddings API)。

  • 向量存储:将生成的嵌入存储在高效的向量数据库中,如 FAISS。

  • 相似度搜索:根据用户的查询文本生成查询向量,并在向量存储中查找与查询向量最相似的文档。

1.3、处理流程

  1. 文本预处理:对输入的文本进行清洗和标准化处理。

  2. 生成嵌入:使用嵌入模型将文本转换为高维向量。

  3. 存储嵌入:将生成的嵌入存储在向量数据库中,每个嵌入对应一个文档。

  4. 查询处理:用户输入查询文本后,同样使用嵌入模型将其转换为查询向量。

  5. 相似度搜索:在向量数据库中查找与查询向量最相似的嵌入,并返回对应的文档。

1.4、应用场景
  • 构建简单的问答系统:例如,企业内部的员工知识库,通过查询获取相关的文档或信息。

  • 搜索引擎:为大规模的文档或商品数据库提供精准的搜索服务。

  • 内容推荐系统:根据用户的历史行为和查询进行个性化推荐。

1.5、示例代码:
from langchain.vectorstores import FAISS``from langchain.embeddings import OpenAIEmbeddings``from langchain.schema import Document``   ``# 初始化嵌入模型``embeddings = OpenAIEmbeddings()``   ``# 创建商品列表(模拟文档)``products = [`    `Document(page_content="这款智能手机拥有强大的处理器和高清摄像头。"),`    `Document(page_content="这款笔记本电脑轻薄便携,适合商务旅行。"),`    `Document(page_content="这款智能手表支持健康监测和消息提醒。")``]``   ``# 创建向量存储``vectorstore = FAISS.from_documents(products, embeddings)``   ``# 查询向量存储``query = "最好的智能手机"``results = vectorstore.similarity_search(query, k=2)``   ``# 打印结果``for doc in results:`    `print(doc.page_content)``   

二、父文档检索器

父文档检索器是一种基于文档层级关系的检索器,它通过检索“父文档”来帮助获取相关信息。通常,在文档库中存在多个“子文档”(如不同部分或不同章节),而父文档则是它们的整体描述或汇总。父文档检索器的核心思想是通过识别父文档,从而获得与其相关的子文档或详细信息。

假设你是一家律师事务所的开发人员,负责开发一个法律文档检索系统,帮助客户快速找到相关的法律条款和案例。在这种情况下,父文档检索器可以帮助你从大规模的法律文档中提取出完整的案例或条款内容,保证返回的信息不会丢失上下文。

2.1、解决方案
  • 当原始文档非常庞大时,可以检索完整的原始文档或较大的信息块,保持信息的上下文和完整性。

  • 避免仅返回文档的部分内容,确保信息完整性。

2.2、工作原理

  • 文档分割:将大文档分割成多个小段落,并为每个段落生成嵌入。

  • 存储嵌入和元数据:存储这些嵌入及其所属的父文档信息(如文档ID)。

  • 相似度搜索:根据查询文本生成查询向量,在向量存储中查找最相似的段落,并返回其父文档。

2.3、处理流程

  1. 文档分割:将长文档分割成多个段落,每个段落作为一个独立的文档单元。

  2. 生成嵌入:使用嵌入模型将每个段落转换为嵌入。

  3. 存储嵌入和元数据:将嵌入及其所属的父文档ID存储在向量数据库中。

  4. 查询处理:用户输入查询文本后,使用嵌入模型将其转换为查询向量。

  5. 相似度搜索:在向量数据库中查找与查询向量最相似的嵌入,并返回对应的父文档。

2.4、应用场景
  • 法律文档检索:在法律行业中,用户经常需要查找一条法律条文的所有相关内容,包括子条款、解释等。

  • 研究报告检索:在科研领域,用户常常需要通过检索找到与特定研究方向相关的多篇论文或报告。

  • 大型文档的信息提取:例如,针对大量的企业文件或合同,检索系统需要返回与查询条件最相关的完整文档。

2.5、示例代码
from langchain.vectorstores import FAISS``from langchain.embeddings import OpenAIEmbeddings``from langchain.schema import Document``from langchain.retrievers import ParentDocumentRetriever``   ``# 初始化嵌入模型``embeddings = OpenAIEmbeddings()``   ``# 创建法律文档列表(模拟文档)``legal_documents = [`    `Document(page_content="《公司法》第5条规定了公司设立的条件。",`             `metadata={"parent_doc_id": "doc1"}),`    `Document(page_content="《公司法》第10条规定了公司董事会的职能。",`             `metadata={"parent_doc_id": "doc1"})``]``   ``# 创建向量存储``vectorstore = FAISS.from_documents(legal_documents, embeddings)``   ``# 创建父文档检索器``retriever = ParentDocumentRetriever(vectorstore=vectorstore, docstore=vectorstore.docstore)``   ``# 查询父文档检索器``query = "公司法的设立条件"``results = retriever.get_relevant_documents(query)``   ``# 打印结果``for doc in results:`    `print(doc.page_content)

三、多向量检索器

多向量检索器通过对多个文档的内容进行聚合,从中提取出最具代表性的信息。这种检索器常用于从大量信息中综合和总结出最关键信息。

假设你是金融分析师,正在分析一份公司年度财报。报告中包含了多种类型的信息,如财务数据、公司战略、市场分析等。多向量检索器可以帮助你在检索过程中对不同类型的信息进行分类和加权,从而精准地提取出与你查询最相关的信息。

3.1、解决方案
  • 精确提取特定信息,特别是在文档内部存在多个具有不同重要性的内容时。

  • 在索引阶段对文档的不同方面进行区分,提高检索的精准度。

3.2、工作原理

  • 多嵌入生成:为每个文档生成多个嵌入,每个嵌入代表文档的一个方面(如摘要、关键词等)。

  • 存储嵌入和元数据:存储这些嵌入及其对应的文档信息。

  • 相似度搜索:根据查询文本生成查询向量,在向量存储中查找最相似的嵌入,并返回对应的文档。

3.3、处理流程

  1. 多嵌入生成:为每个文档生成多个嵌入,每个嵌入代表文档的一个方面(如摘要、关键词等)。

  2. 存储嵌入和元数据:将生成的嵌入及其对应的文档信息存储在向量数据库中。

  3. 查询处理:用户输入查询文本后,使用嵌入模型将其转换为查询向量。

  4. 相似度搜索:在向量数据库中查找与查询向量最相似的嵌入,并返回对应的文档。

3.4、应用场景
  • 金融报告分析:分析复杂的财务报表,提取不同类型的信息(如收入、支出、税务等)。

  • 科技文献检索:针对多领域、多种类的文献进行检索,提取特定领域的研究成果。

  • 复杂文档的信息提取:例如,结合不同类型的数据(如文本、图表、财务数据等)进行分析和检索。

3.5、示例代码
from langchain.vectorstores import FAISS``from langchain.embeddings import OpenAIEmbeddings``from langchain.schema import Document``from langchain.retrievers import MultiVectorRetriever``   ``# 初始化嵌入模型``embeddings = OpenAIEmbeddings()``   ``# 创建财务报告文档列表(模拟文档)``reports = [`    `Document(page_content="公司2022年净收入达到5亿,市场份额稳步增长。",`             `metadata={"category": "financial"}),`    `Document(page_content="2022年公司战略重点是拓展海外市场。",`             `metadata={"category": "strategy"})``]``   ``# 创建向量存储``vectorstore = FAISS.from_documents(reports, embeddings)``   ``# 创建多向量检索器``retriever = MultiVectorRetriever(vectorstore=vectorstore)``   ``# 查询多向量检索器``query = "2022年财务报告"``results = retriever.get_relevant_documents(query)``   ``# 打印结果``for doc in results:`    `print(doc.page_content)``   

四、自查询检索器

自查询检索器是一种通过自动生成和执行查询来检索相关文档的智能检索器。不同于传统的通过用户输入查询来检索文档的方式,自查询检索器通过预设规则、模型生成或分析文档内容,自动生成一个查询,并通过该查询检索相关文档。这使得检索过程更加自动化和智能化,适用于需要根据文档内容生成查询条件的场景。

假设你正在开发一个社交媒体监控系统,需要根据不同的元数据(如发布日期、作者等)对用户提交的查询进行处理。自查询检索器可以帮助你解析用户的自然语言查询,并根据查询的元数据筛选相关内容。

4.1、解决方案
  • 用户查询不仅关注文档内容,还可能关注文档的元数据(如时间、作者等)。

  • 通过语言模型转化自然语言查询为具体的检索条件,包括元数据过滤规则。

4.2、工作原理

  • 查询构造:使用语言模型将用户的自然语言查询转化为具体的检索条件。

  • 条件生成:生成的条件包括要搜索的文本内容和元数据过滤规则。

  • 相似度搜索:根据生成的检索条件在向量存储中查找符合条件的文档。

4.3、处理流程

  1. 查询构造:用户输入自然语言查询,使用语言模型将其转化为具体的检索条件。

  2. 条件生成:生成的检索条件包括要搜索的文本内容和元数据过滤规则。

  3. 存储嵌入和元数据:将文档及其元数据存储在向量数据库中。

  4. 相似度搜索:根据生成的检索条件在向量数据库中查找符合条件的文档。

4.4、应用场景
  • 社交媒体分析:分析来自社交平台的用户评论、帖子等内容,并根据元数据(如标签、发布时间等)进行筛选。

  • 用户行为追踪:在电商平台上,根据用户的购买历史、搜索记录等数据进行个性化推荐和查询。

  • 元数据驱动的检索:例如,基于文档的创建者、创建时间、文档类型等元数据进行更精确的检索。

4.5、示例代码

from langchain.retrievers.self_query import SelfQueryRetriever``from langchain.vectorstores import FAISS``from langchain.embeddings import OpenAIEmbeddings``from langchain.chains.query_constructor.base import StructuredQueryOutputParser, get_query_constructor_prompt``from langchain.llms import OpenAI``   ``# 初始化嵌入模型和语言模型``embeddings = OpenAIEmbeddings()``llm = OpenAI()``   ``# 创建文档列表(模拟文档)``documents = [`    `Document(page_content="作者:张三,发布于2022年1月,内容是关于金融的研究。",`             `metadata={"author": "张三", "date": "2022-01-01"}),`    `Document(page_content="作者:李四,发布于2022年3月,内容是关于税务的报告。",`             `metadata={"author": "李四", "date": "2022-03-01"})``]``   ``# 创建向量存储``vectorstore = FAISS.from_documents(documents, embeddings)``   ``# 创建自查询检索器``retriever = SelfQueryRetriever(`    `vectorstore=vectorstore,`    `llm=llm,`    `output_parser=StructuredQueryOutputParser(query_constructor_prompt=get_query_constructor_prompt())``)``   ``# 查询自查询检索器``query = "关于税务的报告,李四作者"``results = retriever.get_relevant_documents(query)``   ``# 打印结果``for doc in results:`    `print(doc.page_content)``   

五、关键词匹配检索器(上下文压缩)

基于上下文的检索器在检索过程中,考虑到查询和文档的上下文关系,不仅仅依据关键词或向量相似度。它通过捕捉上下文信息来提高检索的准确性和相关性。

假设你是一个内容网站的开发者,需要为用户提供一个快速的新闻检索功能。用户可以通过输入一个关键词,快速找到与该关键词相关的新闻文章。关键词匹配检索器可以高效地根据查询词找到相关的内容,而不需要复杂的模型推理。

5.1、解决方案
  • 高效的查询处理:关键词匹配检索器适用于较为简单、直接的查询任务,能够快速返回匹配的文档。

  • 提供简单、快速的检索功能,避免了复杂模型推理的计算开销。

5.2、工作原理

  • 初步检索:首先使用常规的向量存储检索器获取初步的检索结果。

  • 文档压缩:在初步检索结果中进一步筛选,确保只保留最相关的部分。

  • 相似度计算:使用嵌入模型计算文档片段的相似度,去除无关信息。

5.3、处理流程

  1. 初步检索:使用常规的向量存储检索器获取初步的检索结果。

  2. 文档压缩:在初步检索结果中进一步筛选,确保只保留最相关的部分。

  3. 相似度计算:使用嵌入模型计算文档片段的相似度,去除无关信息。

  4. 最终结果:返回经过压缩后的最相关文档片段。

5.4、应用场景
  • 文章摘要提取:例如,在新闻聚合网站中,用户可以通过关键词搜索找到相关的新闻报道。

  • 常见问题解答(FAQ)系统:通过关键词匹配,用户可以快速检索到常见问题的答案。

  • 客户服务自动化:客户支持系统可以通过关键词匹配检索到相关问题的解决方案。

5.5、示例代码:
from langchain.vectorstores import FAISS``from langchain.embeddings import OpenAIEmbeddings``from langchain.schema import Document``from langchain.retrievers import KeywordMatcherRetriever``   ``# 初始化嵌入模型``embeddings = OpenAIEmbeddings()``   ``# 创建新闻文档列表(模拟文档)``news_articles = [`    `Document(page_content="近日,全球股市下跌,原因是各国经济放缓。",`             `metadata={"category": "finance"}),`    `Document(page_content="科技行业迎来突破性发展,人工智能成为焦点。",`             `metadata={"category": "technology"})``]``   ``# 创建向量存储``vectorstore = FAISS.from_documents(news_articles, embeddings)``   ``# 创建关键词匹配检索器``retriever = KeywordMatcherRetriever(vectorstore=vectorstore)``   ``# 查询关键词匹配检索器``query = "股市"``results = retriever.get_relevant_documents(query)``   ``# 打印结果``for doc in results:`    `print(doc.page_content)``   

六、基于规则的检索器(例如时间加权)

基于规则的检索器通过用户定义的规则对文档进行筛选。规则可以基于文档的元数据或内容特征,如特定的字段值或内容匹配条件。适用于业务逻辑较为简单、规则明确的检索场景。

假设你是一个法务团队的开发者,正在开发一个合同审查系统。这个系统需要通过设定规则(如合同金额、签约方等),快速筛选出符合要求的合同条款。基于规则的检索器可以帮助你在大量合同中筛选出符合特定规则的文档,并进行自动化审查。

6.1、解决方案
  • 自动化合规检查和合同审查,提高效率。

  • 通过设定明确的规则,筛选出符合条件的文档,减少人工操作的时间和成本。

6.2、工作原理

  • 时间权重:对不同时间的文档赋予不同的权重,较新的文档权重更高,较旧的文档权重逐渐衰减。

  • 相似度搜索:根据查询文本生成查询向量,在加权的向量存储中查找最相似的文档。

6.3、处理流程

  1. 时间权重:为每个文档分配一个时间戳,并根据时间戳计算权重。

  2. 生成嵌入:使用嵌入模型将文档转换为嵌入。

  3. 存储嵌入和时间戳:将生成的嵌入及其时间戳存储在向量数据库中。

  4. 查询处理:用户输入查询文本后,使用嵌入模型将其转换为查询向量。

  5. 相似度搜索:在加权的向量数据库中查找与查询向量最相似的嵌入,并返回对应的文档。

6.4、应用场景
  • 合规检查:例如,在银行系统中,根据合规要求,系统可以检索符合特定条件的文档,如符合反洗钱法规的交易记录。

  • 合同审查:通过规则检索器,自动化检查合同条款是否符合公司政策或法律要求。

  • 招聘信息筛选:基于规则筛选符合特定要求的简历或职位描述。

6.5、示例代码
from langchain.vectorstores import FAISS``from langchain.embeddings import OpenAIEmbeddings``from langchain.schema import Document``from langchain.retrievers import RuleBasedRetriever``   ``# 初始化嵌入模型``embeddings = OpenAIEmbeddings()``   ``# 创建合同文档列表(模拟文档)``contracts = [`    `Document(page_content="合同1:金额100万,签约方甲方是公司A。",`             `metadata={"contract_value": "100万", "party": "公司A"}),`    `Document(page_content="合同2:金额50万,签约方甲方是公司B。",`             `metadata={"contract_value": "50万", "party": "公司B"})``]``   ``# 创建向量存储``vectorstore = FAISS.from_documents(contracts, embeddings)``   ``# 定义筛选规则:金额大于等于100万,甲方是公司A``def filter_rule(doc):`    `return doc.metadata['contract_value'] == "100万" and doc.metadata['party'] == "公司A"``   ``# 创建基于规则的检索器``retriever = RuleBasedRetriever(vectorstore=vectorstore, filter_func=filter_rule)``   ``# 查询基于规则的检索器``query = "金额100万,甲方公司A"``results = retriever.get_relevant_documents(query)``   ``# 打印结果``for doc in results:`    `print(doc.page_content)``   

七、层级检索器

层级检索器是对文档的内容进行分层结构化管理的检索器。它通过对文档进行分类和组织,能够根据不同层级进行检索。例如,可以按项目阶段、文档类型等不同维度进行检索。

假设你是一家建筑公司的项目经理,负责一个大型工程项目的管理。你需要检索项目的不同阶段文档(如设计阶段、施工阶段等)。层级检索器可以帮助你通过设置层级关系,将项目分为不同的阶段,并根据阶段进行精准的文档检索。

7.1、解决方案
  • 处理带有明确层级关系的文档,帮助用户快速查找到所需的具体文档或信息。

  • 在多层级的文档管理系统中,提高检索效率,避免检索混乱。

7.2、工作原理

  • 子查询生成:从初始查询出发,生成多个相关的子查询。

  • 多检索:分别检索每个子查询的结果。

  • 结果综合:综合所有子查询的结果,返回最相关的文档。

7.3、处理流程

  1. 子查询生成:从用户的初始查询出发,使用语言模型生成多个相关的子查询。

  2. 多检索:分别使用每个子查询在向量存储中进行检索。

  3. 结果综合:综合所有子查询的结果,根据相似度评分返回最相关的文档。

7.4、应用场景
  • 文档管理系统:在企业的文档管理系统中,层级检索器可以根据文档的类别或子类别进行精确检索。

  • 项目管理:在项目管理工具中,通过层级检索可以精确找到项目中的子任务、报告或文档。

  • FAQ 系统:通过层级结构来管理问题和答案,用户可以按问题类别检索。

7.5、示例代码
from langchain.vectorstores import FAISS``from langchain.embeddings import OpenAIEmbeddings``from langchain.schema import Document``from langchain.retrievers import HierarchicalRetriever``   ``# 初始化嵌入模型``embeddings = OpenAIEmbeddings()``   ``# 创建项目阶段文档列表(模拟文档)``project_documents = [`    `Document(page_content="设计阶段文档:项目规划和设计图纸。",`             `metadata={"phase": "设计"}),`    `Document(page_content="施工阶段文档:施工进度报告。",`             `metadata={"phase": "施工"})``]``   ``# 创建向量存储``vectorstore = FAISS.from_documents(project_documents, embeddings)``   ``# 创建层级检索器``retriever = HierarchicalRetriever(vectorstore=vectorstore, hierarchy_field="phase")``   ``# 查询层级检索器``query = "设计阶段文档"``results = retriever.get_relevant_documents(query)``   ``# 打印结果``for doc in results:`    `print(doc.page_content)``   

八、基于图谱的检索器(集成检索器)

图谱检索器使用图谱数据结构来进行信息检索。文档与文档之间、文档与查询之间的关系通过图的结构来表示。通过图的连接,检索器可以高效地发现和利用文档之间的相关性。

假设你在开发一个医学信息检索系统,用户可以根据症状或疾病查询相关的药物和治疗方法。通过构建一个包含疾病、症状和药物之间关系的图谱,你可以使用图谱检索器来快速定位相关的医学信息,并给出精确的查询结果。

8.1、解决方案
  • 通过关系和结构化数据提供更为精准的检索。

  • 适用于知识图谱的场景,在复杂的知识库中提取有价值的信息。

8.2、工作原理

  • 多检索器组合:结合多个检索器的优点,采用混合搜索的方式。

  • 多策略检索:可以同时使用关键词匹配和语义相似度等多种策略。

  • 结果综合:根据查询文本,从多个检索器中获取结果,并综合所有结果。

8.3、处理流程

  1. 多检索器组合:结合多个检索器的优点,如向量存储检索器、父文档检索器等。

  2. 多策略检索:可以同时使用关键词匹配和语义相似度等多种策略。

  3. 结果综合:根据查询文本,从多个检索器中获取结果,并综合所有结果,返回最相关的文档。

8.4、应用场景
  • 知识图谱构建:在企业中,通过知识图谱整合不同的业务模块和信息流,构建企业的知识库。

  • 关系型数据检索:例如,在医学领域,基于疾病、症状、药物之间的关系进行精准检索。

  • 社交网络分析:在社交网络平台中,通过用户关系图谱来进行精准的内容推荐和社交推荐。

8.5、示例代码
from langchain.vectorstores import FAISS
from langchain.embeddings import OpenAIEmbeddings
from langchain.schema import Document
from langchain.retrievers import GraphRetriever
   
# 初始化嵌入模型
embeddings = OpenAIEmbeddings()
   
# 创建医学知识文档列表(模拟文档)
medical_knowledge = [
    Document(page_content="心脏病的常见症状包括胸痛、呼吸急促。",
             metadata={"disease": "心脏病", "symptoms": "胸痛, 呼吸急促"}),
    Document(page_content="高血压的治疗方法包括改变饮食和药物治疗。",
             metadata={"disease": "高血压", "treatment": "饮食调整, 药物治疗"})
]
   
# 创建向量存储
vectorstore = FAISS.from_documents(medical_knowledge, embeddings)
   
# 创建图谱检索器
retriever = GraphRetriever(vectorstore=vectorstore, graph_structure={"disease": "treatment"})
   
# 查询图谱检索器
query = "高血压的治疗方法"
results = retriever.get_relevant_documents(query)
   
# 打印结果
for doc in results:
    print(doc.page_content)
   

九、总结

通过本文介绍的八种 LangChain 检索器,您可以根据具体的业务需求和场景,选择最合适的检索方式来构建高效的信息检索系统。无论是简单的关键词匹配,还是复杂的图谱关系检索,LangChain 都提供了强大而灵活的工具,帮助开发者更好地解决业务中常见的信息检索问题。希望通过这些实例和代码,您能够更好地理解并应用这些检索器,在实际项目中提高工作效率并优化业务流程。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值