自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(559)
  • 收藏
  • 关注

原创 行业大模型:推动人工智能与行业深度融合的关键力量

大模型的发展正在引发一场智能革命,其强大的能力为各行各业带来了新的机遇和挑战。行业大模型作为人工智能与行业深度融合的关键,具有重要的意义。正如《行业大模型调研报告》中所指出的,行业大模型大多生长于通用大模型之上,通过对通用大模型进行调整和优化,使其能够更好地适应特定行业的需求。它不仅是一个模型,更是包含了针对特定数据和任务的训练或优化,以及相应的应用。在应用方面,不同行业对大模型的需求和应用场景各不相同。例如,数字原生行业率先应用大模型,生产性服务业则为其他传统行业提供了示范。

2024-08-25 10:45:00 406

原创 RAG真的是LLM的未来吗?

近年来,检索增强生成(RAG)技术在AI领域掀起了一股热潮,被许多人视为大语言模型(LLM)发展的未来方向。然而,斯坦福大学最近发表的一项研究结果让我们不得不重新思考这个问题。这项研究不仅量化了RAG的效果,也揭示了其潜在的局限性。让我们深入探讨这个问题,并思考RAG与模型本身能力提升之间的权衡。

2024-08-24 20:16:14 708

原创 为什么多模态基础智能体是下一个必争之地?清华发布全新评测基准VisualAgentBench

基础模型,特别是大规模预训练语言模型,展现出超出人们预期的通用能力,可以通过提示(Prompting)和微调(Finetuning)实现在特定语言任务上的良好表现。更令人兴奋的是,通过允许基础模型与真实世界、环境甚至其他模型产生交互,我们发现了这类大模型涌现出作为智能体的潜力。LLM-as-Agent 这一领域也在过去一年多来产生了巨大的进展,成为基础模型研究中的一个重要分支。

2024-08-24 20:13:25 509

原创 医疗领域大模型总结及RAG新框架RAGLAB:兼看StructuredRAG结构化指令遵循评估基准

领域大模型进展。医学领域的大模型综述,Clinical Insights: A Comprehensive Review of Language Models in Medicine:https://arxiv.org/pdf/2408.11735,从内容上看,该工作分类和讨论了LLMs在医疗领域的多种应用,包括文本生成、标记分类、序列分类、问答和信息提取、摘要和释义、以及对话等任务。

2024-08-23 21:10:04 433

原创 GraphRAG综述:LLM下一里程碑,给RAG加上图的能力

这篇论文是对GraphRAG技术这一新兴研究领域的全面回顾。GraphRAG技术是大型语言模型(LLMs)进步的一个重要里程碑,它通过将外部库转化为知识图谱来增强语言模型的能力,使得模型在不重新训练的情况下,能够更准确、更全面地生成和理解语言。这项技术的出现,响应了当前LLMs面临的挑战,如生成不准确信息的“幻觉”现象、缺乏特定领域的知识以及信息更新滞后等问题。作者们对GraphRAG的工作流程、核心技术、训练方法、下游应用、评估标准以及工业案例进行了系统化的梳理和讨论。

2024-08-23 20:48:15 591

原创 你真的了解CoT?普林斯顿大学解密影响CoT效率的因素,引用5875次的CoT讲了啥

改进型CoT Prompt框架包括以下关键组成部分:1. 任务描述增强2. 多样化示例池3. 动态推理路径4. 自校验机制。

2024-08-22 20:41:07 750

原创 GraphRAG揭秘:构建层次化知识图谱的终极指南

现在的RAG检索增强生成是一种使用真实世界信息改进LLM输出的技术。大多数RAG方法使用向量相似性作为搜索技术,叫。但是RAG提取的每个文档是独立的,没有显式的结构化关系。检索出的文档可能缺乏上下文连接,并且依赖于语言模型的推理能力还有检索出的文档。GraphRAG是一种结构化的、分层的检索增强生成 (RAG) 方法,不同于使用纯文本片段的简单语义搜索方法。GraphRAG流程包括从原始文本中提取知识图谱、构建社区层次结构、为这些社区生成摘要,然后在执行基于RAG的任务时利用这些结构。

2024-08-22 20:27:53 666

原创 深入探索 graphrag-local-ollama:开源项目的深度剖析与应用实战

graphrag-local-ollama 这一开源项目为我们打开了一扇通向高效、灵活和经济的模型推理的大门。通过深入了解和应用它,我们能够在人工智能的世界中创造出更多有价值的成果。

2024-08-22 20:16:01 382

原创 实操分享!利用ChatGPT进行学术研究和论文写作的10个顶级AI提示词指令

作为资深研究助理,请撰写一篇高度凝练的摘要,以准确传达论文的核心研究问题、方法、主要发现及其理论或应用意义。摘要应具有精确性、信息密度高,并能够在简短的篇幅内全面概括论文的学术贡献,建议字数不超过250字。

2024-08-21 20:01:36 958

原创 一篇GraphRAG技术最新全面综述

大型语言模型(如GPT-4、Qwen2和LLaMA)在自然语言处理领域取得了革命性的进展,但它们可能面临领域特定知识的缺乏、信息更新不及时等问题。GraphRAG通过利用图结构信息,提供了一种解决方案,以更精确和全面的方式检索信息,生成更准确、上下文相关的回答。直接语言模型(Direct LLM)、检索增强型语言模型(RAG)和图检索增强型语言模型(GraphRAG)之间的比较。在给定用户查询的情况下,直接语言模型(LLMs)可能因为回答浅显或缺乏具体性而受到影响。检索增强型语言模型(RAG)通过检索相关文

2024-08-21 19:51:24 1011

原创 手把手系列 | 使用Milvus、Llama 3、Ollama、LangChain本地设置RAG应用

RAG,即检索增强生成,是一种通过整合外部数据源来增强大语言模型(LLM)的技术。一个典型的 RAG 应用包括:索引流水线(Pipeline):用于从外部数据源中摄取数据并对其进行索引,随后加载、拆分并将数据存储在 Milvus 中。检索和生成:将用户查询转换为 Embedding 向量,然后从 Milvus 中检索相关数据形成上下文,然后 LLM 上下文生成响应。文本将提供实用的操作指导,向您展示如何使用本地 LLM 构建 RAG 应用。欢迎初学者跟随本指南开始构建自己的问答机器人!

2024-08-21 19:31:29 744

原创 一文讲明白大模型显存占用(只考虑单卡)

顾名思义,混合精度训练就是将多种不同的精度数据混合在一起训练,《 MIXED PRECISION TRAINING 》这篇论文里将FP16和FP32混合,优化器用的是Adam,如下图所示:MIXED PRECISION TRAINING论文里的训练流程图按照训练运行的逻辑来讲:Step1:优化器会先备份一份FP32精度的模型权重,初始化好FP32精度的一阶和二阶动量(用于更新权重)。Step2:开辟一块新的存储空间,将FP32精度的模型权重转换为FP16精度的模型权重。

2024-08-21 19:12:43 623

原创 别等GPT-4o啦,国产「开源版」GPT-4o 来了!支持全模态、无障碍交流

腾讯最近的多模态进展有点子“一路高歌”,先是腾讯元宝升级了一波多模态能力,就差把GPT-4o从榜一拉下来了。最近,又。每次使用Siri时,都得先说个唤醒词,比如“Hi!Siri”,或者按个按钮才能开始说话。而且,当机器在回答用户提问的时候,用户就不能继续提问了,因为它只能按顺序处理输入。这次,腾讯提出了VITA,打破了这一限制!“VITA”看这名字就知道,其能够同时处理和分析 Video(视频)、Image(图像)、Text(文本) 和 Audio(音频)。

2024-08-20 20:27:00 614

原创 万字长文,代码详解Memory3:革命性RAG模型如何重新定义大规模语言模型

在Memory3的理论框架中,知识被定义为LLM计算图中的一个电路。计算图:节点:所有注意力层和MLP层的隐藏向量边:这些层内的所有激活函数电路:计算图中同态子图的等价类具有非可忽略边权重具有可解释的输入-输出关系知识:特定知识:输入具有可解释含义,输出基本固定抽象知识:其他情况这种定义将知识与LLM的内部计算机制直接关联,为后续的知识外化奠定了基础。Memory3模型代表了语言模型发展的一个重要方向,通过引入显式记忆机制,它成功地在模型性能、效率和灵活性之间取得了平衡。

2024-08-20 20:06:16 668

原创 大模型面经之bert和gpt区别

本篇介绍bert和gpt区别。BERT和GPT是自然语言处理(NLP)领域中的两种重要预训练语言模型,它们在多个方面存在显著的区别。以下是对BERT和GPT区别的详细分析BERT:全称:Bidirectional Encoder Representations from Transformers。架构:基于Transformer的编码器部分进行堆叠构建,通过预训练和微调两个阶段来生成深度的双向语言表征。

2024-08-20 19:51:21 725

原创 GraphRAG + AutoGen + Ollama + Chainlit = 本地和免费的多代理 RAG 超级机器人

这是我第一次涉足 AI 代理、LLM 和 RAG,在过去的几周里,我绕过了许多基础知识,直接投入到创建这个实现中。虽然这种实现并不完美,但它是开发更复杂应用程序的绝佳模板。它为集成多个功能和编码代理奠定了坚实的基础,应该使您能够构建复杂的工作流程、自定义代理交互并根据需要增强功能。

2024-08-19 20:40:17 713

原创 当我把 Kimi+ 助理全部拆解后,才发现写好提示词如此简单(结尾附赠 Kimi 提示词全集)

当我深入拆解 Kimi+ 助理和 Kimi 自带的常用语提示词后,发现一个好的提示词基本包含如下几个方面:角色背景技能约束工作流示例这里我们就以“提示词专家”来进行举例,看看当它为用户生成提示词时,需要包含哪些部分?包含了我们上面所提的那六点,那为啥“提示词专家”帮用户生成有这么多内容呢?因为它是要生成所有场景的提示词,用户提出的要求可能千奇百怪的,所以需要尽可能的考虑完善,所需要的元素自然会超过我们所提出的六点。

2024-08-18 10:45:00 736

原创 RAG 开发四大痛点及解决方案

知识库缺乏必要的上下文信息,导致 RAG 系统在无法找到确切答案时,可能会提供模棱两可的错误信息,而不是直接表明其无知。这种情况下,用户可能会接收到误导性的信息,从而感到沮丧。“垃圾输入,垃圾输出。” 若源数据质量不佳,比如:存在相互矛盾的信息,即便是再完美的 RAG 流程也无法从劣质数据中提炼出有价值的知识。以下提出的解决方案不仅能解决这一难题,还能应对本文中提到的其他问题。高质量的数据是确保 RAG 流程顺畅运行的关键。

2024-08-17 10:45:00 1318

原创 不是吧?这么好用的开源标注工具,竟然还有人不知道…

与常见的标注工具不同,LabelU提供了非常灵活、丰富和可自定义组合的标签工具,就像是一套为AI研究员量身打造的“积木”,每一位用户都能。

2024-08-16 21:08:02 674

原创 最近爆火的GraphRAG是什么,真的能用于商业应用吗?

本文首先介绍了GraphRAG相比传统的朴素RAG的优势以及其在商业落地上的局限性,然后讲解了GraphRAG的基本使用,在实际操作过程中发现还是比较耗费token的,那token到底耗费在哪,其内部运行的流程又是怎么样的呢?带着这些问题,接下来我会用两篇图文并茂的文章详细介绍一下:GraphRAG如何构造知识图谱全局检索和局部检索的流程。

2024-08-16 20:27:24 838

原创 解锁GraphRag.Net的无限可能:手把手教你集成国产模型和本地模型

接下来,我们需要为每个服务接口提供具体的实现。

2024-08-15 20:23:18 1025

原创 智谱,闷声不响发了个「100w 长文本模型」

能够从长篇大论中提炼出精炼的摘要,捕捉并呈现文章的核心要点,为读者节省时间。

2024-08-15 20:01:09 737

原创 使用 Gemma 2 构建 RAG的全过程( Ollama 或 Hugginface )

没错,这两天关于9B、27B开源的消息又刷屏了,如果你还不知道的话,可以搜搜看看,还是挺不错的。▲ 从这组官方的对比数据看出,能力已经力压llama3,甚至gemma:27b的能力也接近了llama3 70b,看来模型真的是在往小了发展,越来越接地气,我们老百姓的普通电脑配置也能跑起来!既然老百姓的普通电脑都能跑了(9B),那我们就介绍。

2024-08-14 20:33:41 242

原创 时间序列+预训练大模型!最新开源成果性能暴涨42.8%

预训练大模型因为在大规模多领域的数据集上进行训练,能学习到丰富的、跨领域的时间序列表示,在面对新的、没见过的时间序列数据时,它能够表现出更强的泛化性和数据处理能力,实现更高的准确性。因此关于时间序列+预训练大模型的研究正在快速发展,并且已经在多个领域和应用中有了显著的成果,比如Chronos、清华Timer等,更有提高了42.8%性能的ViTST。如果有同学有想法发论文,可以从下手,这俩是这个方向关注的重点。另外为方便大家找参考,我整理了,全都已开源可复现。

2024-08-14 20:21:26 1021

原创 多模态大模型(MLLM):架构篇

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

2024-08-14 20:03:10 955

原创 AI赋能下的客服中心:策略、实践与价值创造

在数字化转型的浪潮中,客户服务中心作为企业与客户互动的关键节点,正经历着由人工智能(AI)技术引领的革新。AI技术的应用不仅极大提升了运营管理的智能化水平,还显著增强了客户服务的个性化体验,同时为员工提供了更加高效的工作辅助工具。本文全面探讨了AI在客服中心的多维应用策略,

2024-08-12 22:03:32 933

原创 面了豆包大模型算法岗,挂在一面。。。

即便不是做对齐的,还是要有对齐技术的认知对论文不是很care,可能只是用来筛简历,估计和llm有关的项目比较有价值大模型头部计划竞争对手太猛了,应该都是知名模型公司的深度参与llm训练的。

2024-08-12 21:48:03 860

原创 可信Agent构建之道:AI如何重塑工作流?

如果AI能在后台默默为您工作,那会怎样呢?我认为,为了让代理系统真正发挥潜力,我们需要转变观念,让AI在后台默默工作。当任务在后台处理时,用户通常更能接受较长的完成时间,因为他们对即时响应的期望降低了。这样,代理就能更自由地进行工作,往往比在聊天界面中更加细致和认真。此外,让代理在后台运行,也使我们能够更有效地扩展我们的能力。聊天界面通常限制我们一次只能处理一个任务。但如果代理能在后台环境中运行,就可以有多个代理同时处理多个任务。那么,这种后台代理的用户体验应该是什么样的呢?

2024-08-11 10:45:00 635

原创 Dify+谷歌翻译 使用中文提示词实现本地文生图

Dify 提示了众多的工具让我们使用,我们可以通过流程编排来实现一些工具的串联, 这样的话如果没有额外逻辑我们就不需要编写代码了,可以节省很大工作量。

2024-08-10 10:45:00 967

原创 一文搞懂大模型预训练PT与有监督微调SFT

token是指文本中的一个词或者子词,给定一句文本,送入语言模型之前,首先对原始文本进行tokenize,也就是将一个文本序列拆分为离散的token序列。tokenize是在大量未标注的文本数据上进行训练,创建一个固定的词表,这个词表包含了模型能够理解和操作的所有tokens。tokenizer将文本转换为tokens序列之后,下来就是词嵌入,将每个token转换为其对应的向量表示,捕捉token的语义和上下文信息,使得模型能够在数学空间中进行计算和推理。

2024-08-09 20:39:21 837

原创 指令微调在渠道业务测试用例AI大模型中的应用

Self-Instruct是一个半自动的过程,从有限少量的手动编写的种子任务开始,使用大模型以引导的方式生成新的大量任务,用于指令微调。完整的流程可以分为6步,如下图:手动编写少量种子任务任务指令生成分类任务识别任务实例生成过滤及处理使用生成的数据微调大模型通过对开源大模型进行指令微调,使其在测试领域的表现更加出色,为后续定制渠道业务测试用例大模型的工作奠定了坚实的基础。

2024-08-08 20:47:54 806

原创 AIGC时代,产品经理的角色定位与能力模型

当下,要是问产品经理想往哪个方向发展,90%都会说想转AI产品经理。但是AIGC产品经理和传统产品经理有什么异同?新时代,对于产品经理的要求又有哪些变化呢?产品经理这个角色由来已久,在 PC 时代、移动云时代、产业时代,它们分别代表着不一样的承载着不一样的使命。

2024-08-08 20:24:55 554

原创 在 RAGFlow 中实践 GraphRAG

RAGFlow 0.9 版本发布,正式引入了对 GraphRAG 的支持。GraphRAG 由微软近期开源【参考文献1】,被称作下一代 RAG,并且在更早时间发表了相关论文【参考文献2】。

2024-08-07 21:42:29 1030

原创 GraphRAG 深入解析

GraphRAG 建立在微软之前使用图机器学习的研究[3]和工具[4]的基础上。GraphRAG 流程的基本步骤包含索引和查询两部分。社区总结此时,我们有一个实体和关系的图、实体的社区层次结构以及 node2vec 嵌入。现在,我们希望基于社区数据并为每个社区生成报告。这让我们可以从多个粒度点对图表有一个高层次的了解。例如,如果社区 A 是顶级社区,我们将获得有关整个图表的报告。如果社区是较低级别的,我们将获得有关本地集群的报告。生成社区报告在此步骤中,我们使用 LLM 生成每个社区的摘要。

2024-08-07 21:22:24 770

原创 使用 LiteLLM 构建适用于生产级规模的强大 LLM 应用程序

LiteLLM是一个 Python 库,旨在简化多种大型语言模型(LLM)API 的集成。通过支持来自众多提供商的超过 100 种 LLM 服务,它使用户能够使用标准化的 OpenAI API 格式与这些模型进行交互。提供商包括AzureAnthropicCohereOpenAIOllama和Sagemaker等主要品牌。这种广泛的兼容性为用户提供了丰富的语言模型功能,简化了将先进语言模型集成到其应用中的过程。参考。LiteLLM 代理。

2024-08-07 20:53:21 731

原创 构建基于知识图谱的医药智能体Agent - 基于Llama 3.1、NVIDIA NIM 和 LangChain实践

在这个例子中,我们将配置一个具有四个可选参数的工具。基于这些参数,我们将构建一个相应的Cypher语句,用于从知识图谱中检索相关信息。具体来说,我们的工具将能够根据输入的药物、年龄和药企识别出最常见的副作用。@tool"""\]LIMIT 10"""get_side_effects函数旨在通过指定的搜索条件从知识图谱中检索药物的常见副作用。它接受可选参数,包括药物名称、患者年龄范围和药物制造商,以自定义搜索。

2024-08-06 21:01:28 770

原创 AI项目如何选择技术路线?

面对一个AI需求,如何选择技术方案?:根据已有的标签体系,编写提示词并利用大型语言模型进行初步的标签提取。如果模型只能提取部分所需标签,比如需要10个但只得到5个,这表明存在一定的局限性。:识别出未能提取的标签后,尝试扩充这些标签相关的知识库,然后重新编写提示词,再次进行测试,看是否能够提取更多标签,这时候可能提取出来7个。如果经过上述步骤后,标签提取数量仍然不足,需要分析问题所在。可能是基础模型的能力限制,知识库信息不足,或者单一提示词无法满足复杂任务的需求。

2024-08-06 20:48:36 633

原创 腾讯研究院:行业大模型调研报告

行业大模型是“人工智能+”战略落地的关键一步。通过将大模型应用于具体行业,可以实现技术与行业需求的紧密结合,推动行业智能化转型。

2024-08-05 21:35:09 1032

原创 ChatGLM4重磅开源! 连忙实操测试一波,效果惊艳,真的好用!附带最新相关资料和喂饭级实操推理教程!!

GLM4重磅开源啦GLM4系列版本介绍GLM4大模型能力测评结果经典测评任务结果长文本能力工具调用能力多模态能力手把手实操GLM-4-9B-Chat推理预测&&效果展示GLM4运行硬件和环境要求配置对应的库环境使用peft+bitsandbytes 进行4位量化推理进行大模型的推理显存占用情况手把手实操 多模态版本GLM-4V-9B-Chat推理预测&&效果展示多模态GLM-4V-9B对应的硬件资源进行4位量化加载准备测试图片进行推理预测参考文档GLM-4-9B是智谱AI在24年6月5日推出的开源预训练模型

2024-08-04 12:00:00 1081

原创 60多种Transformer架构一网打尽!世界上第一本全面解析Transformer的神书

作为当今几乎所有尖端大型语言模型架构的核心组成部分。可以说是一个必学的架构,但是关于Transformer系统性的教程书可以说是没有。我也是无意中在网上发现了全面解析Transformer的综合性书籍。这本书涵盖和对应的知识及技巧,技术包括等方向,最重要的是这本书是从出发撰写的(只需要本科基础),大家可以轻松读懂。来自本书前言这本书的评价也非常不错亚马逊评价一些差评也是因为kindle上公式显示有问题**(PDF版本没有这个问题,大家可以放心学)**亚马逊评价01。

2024-08-03 11:30:00 815

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除