AIGC
文章平均质量分 94
AIGC
九城风雪
这个作者很懒,什么都没留下…
展开
-
一文梳理有效提升RAG效果的方法
RAG 是 “Retrieval-Augmented Generation”(检索增强生成)的缩写,它通过结合检索系统和生成模型来提高语言生成的准确性和相关性。RAG 的优势在于它能够在生成响应时引入外部知识,这使得生成的内容更加准确和信息丰富,对于处理需要专业知识或大量背景信息的问题尤其有效。随着大型语言模型(LLMs)的发展,RAG 技术也在不断进化,以适应更长的上下文和更复杂的查询。目前,大部分公司倾向于使用 RAG方法进行信息检索,因为相比长文本的使用成本,使用向量数据库的成本更低。原创 2024-07-07 11:37:25 · 519 阅读 · 0 评论 -
RAG系列之:深入浅出 Embedding
文本向量化就是将文本数据转成数字数据,例如:将文本 `It was the best of times, it was the worst of times.` 转成 `[0, 1, 0, 2, 2, 2, 2, 2, 0, 1]`。转载 2024-06-17 09:38:56 · 62 阅读 · 0 评论 -
一文读懂:大模型RAG
本文概述 RAG 的核心算法,并举例说明其中的一些方法。RAG融合是一个强大的功能,能够提高RAG应用的语义搜索效率。通过使用语言模型生成多个查询并对搜索结果进行重新排序,RAG融合可以呈现更丰富多样的内容,并提供了一个额外的层次,用于调整应用。此外,RAG融合还可以实现自动纠正、节省成本以及增加内容多样性。但是,需要注意一些权衡,比如潜在的延迟问题、自动纠正的挑战以及成本影响。对于依赖常见概念但可能出现内部行话或重叠词汇的应用来说,RAG融合尤其有用。原创 2024-06-11 11:40:44 · 379 阅读 · 0 评论 -
生产中的RAG,为何表现不尽人如意人?
RAG虽然听起来很牛,但要让它在生产环境里稳定运行,还真不是一件容易的事。目前看来它确实有多实际的应用价值,相关的技术也在不断的演进,包括RAG从1.0向2.0的演进,也是在通过探索,不断地去完善这项技术的弱点。转载 2024-06-11 08:44:33 · 26 阅读 · 0 评论 -
AIGC算法工程师面经:NLP基础篇——文本解码超全总结
本系列将从分词、词表优化、词向量、词频、解码的理论和实践代码讲起,最终会将所有知识化零为整搭建一个完整的文本分类模型。转载 2024-06-10 18:25:06 · 26 阅读 · 0 评论 -
一文彻底搞懂 Transformer(图解+手撕)
Transformer 通过其捕捉上下文和理解语言的能力,彻底改变了自然语言处理(NLP)领域。通过注意力机制、编码器-解码器架构和多头注意力,它们使得诸如机器翻译和情感分析等任务得以在前所未有的规模上实现。随着我们继续探索诸如 BERT 和 GPT 等模型,很明显,Transformer 处于语言理解和生成的前沿。它们对 NLP 的影响深远,而与 Transformer 一起的发现之旅将揭示出该领域更多令人瞩目的进展。研究论文。转载 2024-06-10 16:57:39 · 3407 阅读 · 1 评论 -
一文彻底搞懂 Bert(图解+代手撕)
BERT 代表双向编码器表示来自Transformer(BERT),用于高效地将高度非结构化的文本数据表示为向量。BERT是一个经过训练的 Transformer 编码器堆栈。主要有两种模型大小:BERT BASE和BERT LARGE。上图清楚地显示了BERT BASE和BERT LARGE之间的区别,即编码器的总数量。下图描述了单个编码器的设计。输入表示可以是单个句子或一对句子。在将输入传递到BERT之前,需要嵌入一些特殊的标记。转载 2024-06-10 16:36:07 · 6129 阅读 · 0 评论 -
一文说清大模型RAG应用中的两种高级检索模式:你还只知道向量检索吗?
如果你知道RAG(检索增强生成),那么一定知道这里面的R代表Retrieval即检索,也一定知道这个环节对于最终的生成质量有多重要,而基于向量(Vector)的语义检索是最为熟知的一种基础检索模式。检索在复杂RAG应用中的重要性不言而喻,基于单一的向量语义检索很难满足实际企业生产环境下的复杂应用需求,以原型去应对生产的需求会导致举步维艰。这种方式与上一种的区别在于:一级的chunk链接到的对象不再是输出检索结果的检索器(retriever),而是一个RAG引擎,其输出的答案将作为后续生成的上下文。转载 2024-06-10 15:45:12 · 71 阅读 · 0 评论 -
RAG组合拳:AGI应用走向落地的40%(下篇)--附100M文档资料
而我理想中的 data-driven 的 RAG 流程应该是:针对不同的知识库问答场景,以一个评估框架(RAGAS),自动调优出最佳的分块方法、embedding 模型、rerank 模型、prompt 模板、大语言模型的组合。下图是 Rerank 模型 cohere 官网的效果对比图,左侧是维基百科原生的搜索排序,右侧是在左侧排序的基础上,进行重排后的结果,在右侧我们可以看到经过重排后,原先的排序会有较大的变化,比如原来排在第六位的文章重排后到了第一名。转载 2024-06-10 15:40:33 · 18 阅读 · 0 评论 -
【深入浅出RAG】LangChain-RAG优化最终章:RAG结合Agent实现最佳检索结果
主要是因为为了提升在向量数据库中的检索结果,一般会使用向量索引,向量索引的算法(常见的为HNSW算法)都有一定的随机性,会导致除了第一条以外,其他的结果不太准确,因此需要再进行排序。Re-Rank就是重排序,原理比较好理解,就是把向量数据库中检索到的结果,比如最相似的前10条记录,再进行排序,并筛选出更小一部分结果,比如前2条。当发现检索的结果都不满足要求的时候,就通过重写问题,再去互联网查询相关的内容,把网上查找的结果再做一次RAG,发送给大模型生成结果。向量检索不是筛查出最相似的前N个值吗?转载 2024-06-10 12:18:17 · 254 阅读 · 0 评论 -
RAG组合拳:AGI应用走向落地的40%(上篇)
目前有开源的评测结果,对主流的 embedding 模型针对不同测试集、不同任务有对应的分数,可以找到和你最接近的数据集,主要看Retrieval 指标的表现来进行初筛(详见参考文章 5 《github 上开源的评测结果》,不过 openAI 的 embedding 模型没有开源,也没有评测结果,目前无脑推荐开源免费的智源 BAAI/bge-large-zh 模型,评分比较高且免费)。这大概就像:你把两批同样的资料派给不同的公司管理,还让不同人去查,二者都能得到答案,但要找到好答案可不是一件容易的事情。转载 2024-06-10 12:10:55 · 34 阅读 · 0 评论 -
LLM Agents 指南:入门与实现
Agent 是汽车,而 LLM 类似于汽车的引擎,决定了车辆的性能。,在这个系统中,LLM 充当了「大脑」的角色,负责语言理解、思考和规划,将复杂任务分解成可管理的子任务,并制定执行策略,然后,通过使用各种工具和资源,有效完成这些复杂任务。可以看到,LLM 通过 ReAct 很好地解决了用户的问题,先思考,再通过 Action 获取外部信息,进行观察,循环往复,最终得到正确的答案。如图所示,是一次虚构的聊天会话,其中,Agent 通过思考和规划,然后使用绘画、搜索、语音等工具来完成用户的任务。转载 2024-06-10 09:26:35 · 104 阅读 · 0 评论 -
iframe的基本用法
博主使用postMessage API传递参数时,应用B第一次接受的参数为空,之后接收的参数正常了,后来换成URL传递参数,应用B能够快速准确的接受到参数,因此推荐大家优先使用URL进行参数传递,简洁高效。我的功能Demo页面如下图所示,弹框样式自主可控,并且实现了参数传递。原创 2024-05-08 17:15:13 · 783 阅读 · 0 评论 -
大模型开发 - 一文搞懂 Function Calling(函数调用)
自然语言接口(NLI)允许用户通过日常语言与软件和设备交互,无需特定命令或语法。转载 2024-03-11 23:29:19 · 6768 阅读 · 0 评论