自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(92)
  • 收藏
  • 关注

原创 国产AI大模型应用典型案例盘点,覆盖10大医疗应用场景!

随着人工智能技术的飞速发展,国产AI大模型在医疗健康领域的应用日益广泛,正在逐步改变传统的医疗服务模式,提升医疗服务的质量和效率。以下是对国产AI大模型在医疗领域应用的典型案例盘点,覆盖了十大医疗应用场景。AI大模型通过分析海量医疗数据,能够辅助医生进行更准确的诊断。例如,百度灵医大模型利用其强大的数据处理能力,通过API或插件嵌入的方式,在200多家医疗机构中展开应用,显著提升了诊断的准确性和效率。此外,

2024-08-10 14:20:42 818

原创 AI大模型:Agent智能体

在LLM语境下,Agent理解为在某种能自主理解、规划决策、执行复杂任务的智能体,LLM 充当着智能体的“大脑”。从软件工程的角度,智能体是一种基于大语言模型的,具备规划思考能力、记忆能力、使用工具函数的能力,能自主完成给定任务的计算机程序。智能体会把大型任务分解为子任务,并规划执行任务的流程;智能体会对任务执行的过程进行思考和反思,从而决定是继续执行任务,或判断任务完结并终止运行。(这个过程通常通过设计prompt实现)。就像老太太们每天要做的事情一样,比如早上去买菜,下午去公园散步。

2024-08-10 14:09:40 774

原创 学习Transformer,应该从词嵌入WordEmbedding开始

这里我先笼统、概述的说一下Embedding技术。实际上,只要是使用深度学习模型处理NLP问题;都需要在模型中添加,Embedding层。例如,在下面的llama3架构中:其中的2号位置,就是词嵌入层。Embedding层用于将离散的单词数据,转换为连续且固定长度的向量:这样使模型才能处理和学习这些数据的语义信息。例如,我们希望将“Are you OK?”这句话,作为神经网络模型的输入。此时神经网络是没办法直接处理这句文本的。我们需要先将“Are you OK?

2024-08-10 14:01:37 535

原创 RouteLLM:基于偏好数据的大语言模型路由框架

大型语言模型 (LLM) 在各种任务中展现出令人印象深刻的能力,但其成本和能力差异很大。在实际应用中部署这些模型面临着一个重大挑战:将所有查询路由到能力最强的模型可以确保高质量的响应,但成本高昂;而将查询定向到较小的模型可以节省成本,但会牺牲响应质量。来自加州大学伯克利分校、Anyscale 和 Canva 的研究人员提出了 RouteLLM,这是一个开源的 LLM 路由框架,可以有效地平衡价格和性能来解决这个问题。LLM 路由的挑战。

2024-08-10 13:50:54 278

原创 逆天20w赞!吴恩达+Open AI打造《大模型通关指南》

这些教程非常适合开发者学习,以便开始基于LLM实际构建应用程序。我们将该系列课程翻译为中文,并复现其范例代码,其中一个视频还增加了中文字幕,以支持国内中文学习者直接使用,帮助他们更好地学习LLM开发。同时,我们还实现了效果大致相当的中文Prompt,以帮助学习者感受中文语境下LLM的学习使用,对比掌握多语言语境下的Prompt设计与LLM开发。未来,我们还将加入更多高级Prompt技巧,丰富课程内容,帮助开发者掌握更多、更巧妙的Prompt技能。扫描下方官方CSDN二维码获取。

2024-08-09 16:30:08 122

原创 大模型重塑软件架构·开启智能编程新纪元 | 好书推荐

在大模型时代洪流中,架构设计师就像时代舵手,不仅精通传统架构设计精髓,更要拥抱数据洪流与AI智能的浪潮。他们需具备前瞻视野,深入理解大模型技术如何重塑业务逻辑与系统架构,灵活运用云计算、微服务、自动化运维等现代技术栈,构建高可用、可扩展、智能化的系统架构。今天,小编为架构设计师们推荐8本架构领域不容错过的好书,以应对新的时代需求。《企业应用架构模式》(典藏版)作者:马丁·福勒(Martin Fowler)**推荐理由:**世界著名软件开发大师Martin Fowler经典之作,王怀民院士领衔翻译。

2024-08-09 16:27:55 766

原创 爆火下载28万次!MIT最新神书《理解深度学习》pdf分享

本书免费下载地址:扫描下方CSDN官方二维码获取。

2024-08-09 16:26:07 80

原创 2024最新神书-《大模型应用程序构建指南》免费pdf分享

【代码】2024最新神书-《大模型应用程序构建指南》免费pdf分享。

2024-08-09 16:23:59 900

原创 大模型时代的程序设计·构建未来软件的蓝图 | 好书推荐

在人工智能和机器学习主导的大模型时代背景下,设计模式的知识对于软件开发从业者来说变得尤为重要。这些模式作为构建灵活、可扩展系统的基石,在新兴技术快速发展的环境下,帮助开发者应对挑战。以下书单涵盖了设计模式的经典原则及其在现代技术中的应用,旨在为软件工程师、系统架构师等专业人员提供与时俱进的参考,帮助他们适应技术革新的浪潮。小编推荐这个关于设计模式的书单,希望可以帮助从业者更好地理解其在现代技术环境中的实际应用,从而在激烈的竞争中获得优势。《设计模式:可复用面向对象软件的基础》(典藏版)

2024-08-09 16:20:17 532

原创 从头预训练一只迷你 LLaMA 3

虽然是练习,但既然打着复现工作的名头,还是来简要回顾一下原工作究竟做了什么吧。原工作探索的问题是语言模型(LM)在文本连贯性上的表现。像早期的一些语言模型如 GPT-2,即使在一些 Common Craw 这样的语料库上大量预训练后,也很难生成长的、连贯的文本。比如前几年有一种 AI 玩具类型是做文本续写,例如彩云小梦,可以写写作文、小说什么的,如果大家玩过就知道效果其实一言难尽,和今天的大模型完全没法比,其实这就是 GPT-2 level 的续写能力。

2024-08-08 15:39:50 643

原创 使用GraphRAG+LangChain+Ollama:LLaMa 3.1跑通知识图谱与向量数据库集成(Neo4j)

我将向你展示如何使用(一个本地运行的模型)来执行操作,总共就50号代码。。。首先,什么是GraphRAG?GraphRAG是一种通过,关键概念是。▲ 知识图谱与向量数据库集成知识图谱与向量数据库集成是GraphRAG 架构之一:这种方法利用知识图谱和向量数据库来收集相关信息。知识图谱的构建方式可以捕获向量块之间的关系,包括文档层次结构。知识图谱在从向量搜索中检索到的块附近提供结构化实体信息,从而通过有价值的附加上下文丰富提示。这个丰富的提示被输入到 LLM 中进行处理,然后 LLM 生成响应。

2024-08-08 15:37:22 962

原创 构建用于视觉问答的多模态 RAG 系统

为了为后面使用多向量检索器做准备,我们需要为文本、表格和图像元素创建摘要。这些摘要将存储在向量存储中,以便在我们将输入查询传递到提示中时实现语义搜索。让我们开始文本和表格摘要。首先,我们将设置一个提示模板,指示AI充当专家研究助理,负责总结表格和文本。接下来,我们将创建一个链,处理每个文本和表格元素,通过这个提示和GPT-4o模型,生成简洁的摘要。为了提高效率,我们将同时批量处理五个文本或表格元素,使用参数。## 检索器# 提示# 摘要链# 应用于文本# 应用于表格。

2024-08-08 15:19:32 1291

原创 SFT、RLHF、DPO、IFT —— LLM 微调的进化之路

• SFT、RLHF 和 DPO 都是先估计 LLMs 本身的偏好,再与人类的偏好进行对齐;• SFT 只通过 LLMs 生成的下一个单词进行估计,而 RLHF 和 DPO 通过 LLMs 生成的完整句子进行估计,显然后者的估计会更准确;• 虽然 RLHF 和 DPO 取得比 SFT 好的结果,但代价是高昂的数据构造和计算资源开销;

2024-08-07 15:36:48 1014

原创 大模型(LLM)推理框架汇总

MLC LLM大模型(LLM)好性能通用部署方案,陈天奇(tvm发起者)团队开发.项目链接支持的平台和硬件支持的模型| — | — |LlamaGPT-NeoXRedPajamaGPT-JRWKVRWKV-ravenMiniGPTGPTBigCodeChatGLMChatGLM接口API 支持量化(Quantization) 方法支持其他。

2024-08-07 15:34:13 935

原创 搞懂Transformer结构,看这篇PyTorch实现就够了

下面分享一篇实验室翻译的来自哈佛大学一篇关于Transformer的详细博文。“Attention is All You Need”[1] 一文中提出的Transformer网络结构最近引起了很多人的关注。Transformer不仅能够明显地提升翻译质量,还为许多NLP任务提供了新的结构。虽然原文写得很清楚,但实际上大家普遍反映很难正确地实现。所以我们为此文章写了篇注解文档,并给出了一行行实现的Transformer的代码。本文档删除了原文的一些章节并进行了重新排序,并在整个文章中加入了相应的注解。

2024-08-07 15:31:21 938

原创 深入解析LangChain:构建智能应用的全方位指南

你能先简单介绍一下 LangChain 吗?包括它的背景、主要功能,以及它在当前语言模型开发中的意义。

2024-08-07 15:29:29 297

原创 检索增强生成RAG技术入门介绍

让我们先来了解一下 RAG。RAG 是一种增强大型语言模型的强大技术。在我看来,我们应该关注如何更好地应用大型语言模型,而 RAG 是最有效的方法之一,尤其是对开发人员而言。大型语言模型有一些固有的局限性。由于缺乏外部知识,它们可能提供误导或幻觉信息。由于训练数据有截止日期,它们依赖的可能是过时的信息。例如,GPT-3 是在 2021 年之前训练的。在训练数据之外,他们对细分主题缺乏深度和针对性。训练和微调 LLM 的计算成本很高,对许多组织来说是不可行的。

2024-08-07 15:27:54 324

原创 SummHay:长文本LLM和RAG系统评估新基准

人工智能中的自然语言处理 (NLP) 专注于使机器能够理解和生成人类语言。这个领域涵盖了各种任务,包括语言翻译、情感分析和文本摘要。近年来,该领域取得了重大进展,导致了能够处理大量文本的大型语言模型 (LLM) 的发展。这些进步为诸如长上下文摘要和检索增强生成 (RAG) 等复杂任务开辟了可能性。大型语言模型在需要处理长上下文的任务上的性能评估是 NLP 面临的主要挑战之一。传统的任务,例如 Needle-in-a-Haystack,没有提供区分最新模型能力所需的复杂性。

2024-08-07 15:26:14 959

原创 LangChain全新Agent可视化工作流!你不能错过的LangChain科普!与LlamaIndex差别在哪儿?咱都要学吗?

相信一直关注AI领域的同学都听说过这个工具-LangChain,这是一个融合了语言模型与多样化工具、数据及应用程序的新兴技术框架。LangChain的核心价值在于它多维度地重塑了人工智能与人类社会的互动界面,通过将大型语言模型与广泛资源的无缝对接,同时,LangChain整合知识图谱、数据库等多元信息源,为复杂决策过程提供了详实而深入的数据支撑。

2024-08-06 13:46:40 746

原创 AI大模型:RAG检索增强实现流程

RAG典型流程包括索引、检索和生成。但为了提升问答精度,往往还需要针对查询问题和检索后的文档进行处理。想象一下,你有一个装满了各种书籍和文件的大书架。当你想找到某个问题的答案时,你首先需要知道从哪里开始找,这就是RAG模型的第一步——索引。**1. 索引:**就像你在书架上给每本书都贴上了标签,这样你一眼就知道哪本书可能包含你想要的信息。在RAG模型中,索引就是帮助模型快速找到可能包含答案的文档。**2. 检索:**当你找到标签后,下一步就是从书架上找到那本书。

2024-08-06 13:43:05 752

原创 模块化RAG:RAG新范式,像乐高一样搭建 万字长文

在现代计算系统中,模块化正成为一种趋势。能够增强系统的可扩展性和可维护性,并通过流程控制实现高效的任务执行。模块化 RAG 架构分为三个层级:• 顶层聚焦于 RAG 的关键阶段,其中每个阶段都视作一个独立的模块。该层级不仅继承了高级 RAG 范式的主要流程,还引入了一个编排模块来调控 RAG 流程的协同。• 中间层由每个模块内的子模块组成,进一步细化和优化功能。• 底层由基本操作单元——操作符构成。在模块化 RAG 框架内,RAG 系统能够以计算图的形式呈现,其中节点代表特定的操作符。

2024-08-06 13:41:32 937

原创 大模型RAG实战|混合检索:BM25检索+向量检索的LlamaIndex实现

目前,大模型RAG系统中普遍采用混合检索来提升检索准确性。针对要回答的问题,同时通过。

2024-08-06 13:38:35 823

原创 RAG与Fine Tuning:如何选择正确的方法

什么是检索增强生成_(RAG)_?什么是Fine Tuning?什么时候使用检索增强生成_(RAG)_?检索增强生成使用案例什么时候使用Fine Tuning?Fine Tuning使用案例如何在RAG与Fine Tuning之间做出选择。

2024-08-06 13:36:59 744

原创 也读领域RAG评估数据生成框架RAGEval:兼看昨日大模型进展早报综合回顾

本文主要讲了两个方面的工作,一个是昨日大模型进展早报,来简单做个回顾。另一个是当前RAG评估数据集的一个自动生成框架,思路还蛮有趣的。

2024-08-06 13:35:11 887

原创 手把手教你做AI产品经理-保姆级教程

ChatGPT的爆火,让人看到了新的生产力发展方向,微软也因此放弃了元宇宙,ALL In AI,各大巨头和资本也陆续进入,誓要打造中国版的ChatGPT,并觉得人工智能可以改写现有的程序应用场景,带来新的生产力变革。

2024-08-05 15:41:42 1254

原创 多模态大语言模型研究进展!

多模态大型语言模型(MM-LLMs)在过去一年取得了显著进步,通过优化模态对齐和与人类意图对齐,增强了现成的单模态基础模型(LLMs)以支持各种MM任务。本文对MM-LLMs进行了全面综述,包括模型架构和训练流程的概述,以及122个最新进展的MM-LLM分类系统。本文还介绍了输出投影器在机器翻译中的作用,并讨论了模式生成器、训练管道、SOTAMM-LLM以及未来发展方向。MM-LLMs具有较高的性能,未来发展方向包括扩展模型模式、多样化LLM、提高MM生成能力和开发更具挑战性的基准。

2024-08-05 15:37:53 816

原创 SFT、RLHF、DPO、IFT —— LLM 微调的进化之路

• SFT、RLHF 和 DPO 都是先估计 LLMs 本身的偏好,再与人类的偏好进行对齐;• SFT 只通过 LLMs 生成的下一个单词进行估计,而 RLHF 和 DPO 通过 LLMs 生成的完整句子进行估计,显然后者的估计会更准确;• 虽然 RLHF 和 DPO 取得比 SFT 好的结果,但代价是高昂的数据构造和计算资源开销;

2024-08-05 15:31:49 590

原创 RAG 入门指南:从零开始构建一个 RAG 系统

在开始之前,我还是打算再次简要的介绍一下 RAG。在 Meta 的官方 Blog 上有这样一段话:这段话主要讲述了一个新的模型架构,也就是RAG (检索增强生成)的重要性和优势。可以概括为以下几点:1. 构建一个能够进行研究和上下文分析的模型虽然更具挑战性,但对未来的技术进步非常关键;2. 通过在知识密集的下游任务上微调,RAG 可以实现最先进的结果,比现有的最大的预训练序列到序列语言模型还要好;3. 与传统的预训练模型不同,RAG 的内部知识可以轻松地动态更改或补充。

2024-08-05 15:29:45 889

原创 千字解读《2024年前瞻中国AI大模型场景应用趋势蓝皮书》!直击大模型应用五大挑战:最大痛点在于技术面临“卡脖子”风险

7月30日,由前瞻产业研究院携手华为云、首钢基金、深圳上市公司协会联合发起,深圳市政府指导的“深圳产业会客厅——2024人工智能产业对接活动”圆满举办。会上,前瞻产业研究院院长徐文强以“中国AI发展的必然与挑战”为题,深度剖析了《2024年前瞻中国AI大模型场景应用趋势蓝皮书》(以下简称为《蓝皮书》)。徐院指出,随着全球AI技术的飞速发展,中国正站在AI产业变革的关键节点上,面临着前所未有的发展机遇与挑战。

2024-08-05 15:27:30 727

原创 AI大模型加速落地 “新蓝海”如何开拓

【编者按】当前,生成式人工智能技术在多个领域展现出广泛的应用潜力,逐渐成为科技领域的关注焦点。国家互联网信息办公室最新数据显示,截至目前,我国已经完成备案并上线、能为公众提供服务的生成式人工智能服务大模型已达180多个,注册用户突破5.64亿。大模型如何进一步赋能千行百业?今后还需要在哪些方面重点发力?本期,我们邀请专家学者就生成式人工智能发展过程中遇到的难点问题和未来发展趋势进行探讨,为读者呈现这一领域的最新动态。云南昆明,观众在第八届南博会上等待AI机器人制作素描画像。新华社发。

2024-08-05 15:22:48 865

原创 什么是Agentic RAG?

Agentic RAG是检索增强生成(Retrieval-Augmented Generation, RAG)技术的一种高级形式,它通过引入人工智能代理(Agent)的概念,为语言模型赋予了更高层次的智能和自主性。以下是Agentic RAG的主要特点和优势:动态编排机制:Agentic RAG引入了Agent的动态编排机制,可以根据用户提问的不同意图,灵活地调整检索和生成策略。这使得系统能够处理更复杂的查询和多步推理任务。

2024-08-03 11:15:00 811

原创 绝了!这样做竟能让RAG准确率飙升至90%以上,简直开挂!

我们需要根据实际的业务场景来设置不同的回应策略,例如当Top K 匹配不到时,可以直接返回特殊的语言标记,比如”知识库找不到问题相关的信息“,或者直接让LLM使用通用知识作答;又比如产品应用需要提供多轮对话,即拥有上下文联想功能时,我们还需要将历史会话记录整理后一起拼接到提示词中。

2024-08-03 10:00:00 666

原创 AI大模型:大模型方向行业研究报告

1.大模型是指具有和的机器学习模型。在深度学习领域,大模 型通常是指具有。一般来讲,参数量超过、 具备的模型,可以被称为大模型。2.1)参数规模巨大: 大模型可以处理更加复杂、庞大的数据集,从而获得更好的性能。缺点:大量的数据和参数会占用大量的内存空间。2) 深度结构复杂: 更好地捕捉数据中的复杂模式和特征,从而提高模型的准确性和性能。缺点:更加复杂和细致的计算,提高了时间和计算成本。3) 泛化能力(通用能力)强: 大模型能够从已有知识中提取普适规律,并将其应用于新的情况和问题上。

2024-08-02 10:06:24 718

原创 万字技术干货!LLM工程师必读量化指南,可视化图解揭秘大模型如何压缩

社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。转载自 | 新智元大语言模型(LLM)通常过于庞大,无法在消费级硬件上运行。这些模型的参数可能超过数十亿,通常需要显存较大的GPU来加速推理过程。因此,越来越多的研究开始关注如何缩小模型,比如改进训练方法或使用适配器。该领域的一项主要技术被称为量化(quantization)。

2024-08-02 10:02:02 617

原创 一文看遍AI行业大模型

通用大模型技术快速发展,但很多传统行业推进得并不快。对企业而言,大模型应用需要综合考虑专业性、数据安全、持续迭代和综合成本等多种因素。针对这些现实情况,腾讯集团提出重点发展行业大模型的理念。本文基于一线大量实践反馈,做出系统归纳总结,呈现行业大模型发展真实情况,厘清关键争议和困惑问题。真正解决用户需求、距离场景和数据更近的企业,将拥有大模型的未来。

2024-08-02 09:58:53 702

原创 大模型从落地场景到实现路径,14 份深度报告解秘大模型热门问题

生成式AI通过学习大量原始内容,生成新的、原本并不存在的数据、文本、图像或其他类型的内容,具有一定的创造性和想象力。生成式AI对企业带来了创新的机会和自动化的潜力,提高了产品设计、广告创作和个性化服务的水平,使企业能够更高效地自动生成内容、提供个性化的客户体验。2023年是生成式AI的突破时刻,也是中国大模型的发展“元年”。通用大模型的快速迭代推动着生成式AI市场的发展。当前,企业的重点已经从围绕基础大模型的兴奋点转向推动投资回报率的用例。

2024-08-02 09:56:12 1100

原创 书单 | 大模型的书那么多,如何快速选到适合自己的那一本?来,教你!

大模型的书这么多,该怎么选呢?本期书单就来教大家怎么快速地从众多大模型书中选到你想要的那一本!大模型入门不可错过的一本书,就是这本大模型界的经典畅销书**《大规模语言模型》**!系统性强,内容适合初学者,如果你想知道如何构建一个大模型应用,系统了解大模型的构建,选它准没错!**▊《**张奇,桂韬,郑锐,黄萱菁 著解码大语言模型奥秘,引领机器智能新时代详细介绍构建LLM的四个主要阶段:预训练、有监督微调、奖励建模和强化学习解读ChatGPT背后的核心技术配全书PPT课件。

2024-08-01 20:26:04 2178

原创 使用Langchain构建简单的数据库Agent

这篇文章我们介绍一个使用LangChain实现SQLagent的方法,LangChain直接内置了自己的SQLagent实现-—SQLDatabaseChain。这个方法使用 SQL Alchemy 与数据库交互。感兴趣的可以考虑一下这两个方案是否可以融合,这样保证SQL的准确性从而提升最终结果的准确率。下面将介绍今天主要内容的实现步骤:实现步骤首先,我们得有一个数据库。这里我们用的是ClickHouse,一个开源的、面向列的SQL数据库管理系统,特别适合大数据分析。安装起来超级简单,一行命令就搞定。

2024-08-01 20:24:07 375

原创 AI 资讯|2024 Github 上最不能错过的 5 个开源 RAG 框架,让大模型不再胡言乱语!

把大模型想象为一位尽职的图书馆管理员,当你每次有疑问的时候,他就会根据你的口述需求,在浩瀚的文本中尽可能的找到最符合你需求的书籍。而一旦图书馆并没有相关藏书,或内容已过时,我们的这位尽职管理员可不会承认自己的无能,一顿输出猛如虎,结果一看全错。RAG 是一层额外的“知识外挂”。好比给这位管理员额外增补了相关领域的知识,这样它回答出的问题会变得更加精准。这样你就可以放心的让这位管理员,精准解答其他客户所提出疑惑。

2024-08-01 20:22:37 679

原创 LLaMA:开放高效的基础语言模型

本文引入 LLaMA:一个从 7B 到 65B 参数的基础语言模型集合。我们在数万亿个 token 上训练我们的模型,并表明完全使用公开可用的数据集训练最先进的模型是可行的,而不需要使用专有的和不可访问的数据集。其中,**LLaMA-13B 在多数基准上优于 GPT-3(175B),LLaMA-65B 与最优模型 Chinchilla-70B 和 PaLM-540B 具有竞争力。

2024-07-31 16:57:03 701

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除