自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(309)
  • 收藏
  • 关注

原创 一文彻底理解大模型 Agent 智能体原理和案例

大模型 Agent,作为一种人工智能体,是具备环境感知能力、自主理解、决策制定及执行行动能力的智能实体。简而言之,它是构建于大模型之上的计算机程序,能够模拟独立思考过程,灵活调用各类工具,逐步达成预设目标的智能存在。Agent 是 AI 大模型应用的主要新形态,在技术架构范式也发生了很大的变化,从面向过程的架构变成了面向目标架构。

2024-07-22 20:21:47 206

原创 开发一个Agent智能体有多简单

现在越来越多的人开始关注Agent智能体,也有很多朋友想动手开发一个智能体。今天分享下我开发的一个能翻译 GitHub 开源项目的智能体。比如,像这样的英文 GitHub 项目智能体翻译后的内容是这样翻译后的图表、格式都与原文保持一致,阅读体验比较好。以后要用的时候,填入开源项目地址就可以,使用非常方便。这个智能体是在扣子平台做的,扣子提供了大量插件(Agent Tools),所以开发一个智能体就非常简单。首先,需要一个能获取 GitHub 项目 README 内容的插件。

2024-07-21 10:45:00 716

原创 CLUSTERLLM:将大型语言模型作为文本聚类的指南

我们介绍了CLUSTERLLM,这是一种利用经过指令微调的大型语言模型(如ChatGPT)反馈的新型文本聚类框架。与建立在“小”嵌入器上的传统无监督方法相比,CLUSTERLLM具有两个有趣的优势:(1)即使其嵌入不可访问,它也享有LLM的突现能力;(2)它通过文本指令和/或少量标注数据理解用户对聚类的偏好。首先,我们通过构建困难的三重问题来提示ChatGPT,以获取聚类视角的见解,其中A、B和C是根据小嵌入器属于不同簇的相似数据点。

2024-07-20 10:45:00 529

原创 大模型部署的问题,以及企业级大模型的分布式部署方案

在学习大模型的过程中,很多人都知道大模型的训练与部署,但网上大部分资料介绍的都是单机训练和部署。

2024-07-19 19:57:37 660

原创 利用生成式人工智能和大语言模型:医疗融合的全面路线图

自2022年11月由美国公司OpenAI发布以来,名为ChatGPT的聊天机器人以其在与人类对话中的出色表现震惊了世界 [1]。比尔·盖茨赞扬说,新一代对话代理者将“改变人们的工作方式、学习方式、旅行方式、获得医疗保健的方式以及彼此交流的方式”,从而导致重大的生产率提升和世界上一些最严重的不平等问题得到缓解,特别是在医疗保健方面 [1]。白宫媒体公告赞扬“如果得到妥善管理,人工智能可以为所有人的繁荣、平等和安全做出巨大贡献,从癌症预防到气候变化缓解等各个领域” [2]。

2024-07-18 22:01:19 631

原创 计算机毕业生选算法岗还是开发岗?哪个更有前景?

在当今这个数字化时代,计算机专业无疑成为了众多学子心中的热门选择。它不仅代表着高薪酬的吸引力,更象征着未来科技的无限可能。然而,计算机专业的就业方向中,开发岗和算法岗成为了众多计算机专业毕业生的热门选择。这两个岗位,一个侧重于工程实践,一个专注于算法研究,究竟哪一个更适合你呢?软件开发工程师软件开发工程师是从事软件开发相关工作的人员的统称。

2024-07-17 20:50:35 918

原创 多模态图像融合全新里程碑!性能暴涨至99.48%,效率提升4倍

强烈建议所有做图像任务的伙伴,一定不要忽略这项至关重要的技术:多模态图像融合!它能将不同模态的信息结合,克服单一模态的图像信息量有限的问题,在提高图像处理任务的准确性和效率方面效果显著!比如新模型DeepM2CDL便实现了性能提升至99.48%的炸裂效果!而模型MACTFusion,则通过引入注意力机制,在性能提升的同时,训练速度快4倍!正是基于该方法效果卓越,各种改进层出不穷!简述:本篇论文提出了一种名为DeepMCDL的深度多尺度多模态卷积字典学习网络。

2024-07-17 20:33:53 871

原创 浅谈AI生成视频在金融领域的应用

Sora 是openAI 团队发布的一款人工智能模型,他能够根据用户提供的文本描述生成视频内容(Text to video= 文字生成视频),于2024年2月15日(美国当地时间)正式对外发布。

2024-07-17 20:12:00 921

原创 基于大模型的中医舌象智能分析和辅助决策系统演示

基于大模型的中医舌象智能分析是一种创新的中医辅助诊断技术,它结合了现代人工智能技术和传统中医诊断方法。以下是对您描述的基本流程的概括和补充:用户登记:首先,系统需要对用户进行登记,可以通过面部识别技术快速识别并查询用户的历史检测记录,确保信息的连续性和对比性。历史检测记录:登记成功后,用户可以查看自己之前的所有舌象检测记录,这有助于观察舌象变化趋势,评估治疗效果或健康状况的变化。舌象特征提取检测:在这一步骤中,系统使用深度学习的图像处理技术对用户的舌象进行自动分割和特征提取,识别舌质、舌苔等关键信息。

2024-07-16 21:11:08 621

原创 数字人应用场景全解析

数字人,也常被称为虚拟数字人或虚拟形象,是通过计算机图形学、人工智能、机器学习等技术合成的三维或二维角色。它们不仅拥有接近真人的外观,还能通过预设的算法或实时的AI处理进行交流和互动。

2024-07-16 20:12:34 791

原创 百度李彦宏最新预判:大模型应用,最看好这个方向!

人工智能是新一轮科技革命和产业变革的重要驱动力量。近日,百度创始人、董事长兼首席执行官李彦宏先生在2024世界人工智能大会上进行了分享。i黑马作为2024世界人工智能大会的官方合作媒体,现场进行了记录,现将核心内容分享大家。1、两年的时间恍若隔世,整个世界都变了,人工智能可以说颠覆了绝大多数人的认知。2、同样参数规模之下,闭源模型能力比开源模型要更好。3、没有应用,大模型将一文不值。大家不要卷模型了,要去卷应用。

2024-07-15 21:25:38 977

原创 AI智能体 | 扣子Coze 中如何构建知识库,看这一篇就够了

知识库是区别于大模型之外。很多资料并没有进入通用大模型里面。比如保留在自己本地的知识记录,文档。每个公司还都有自己的一些知识文档等。这些都是知识库的来源。知识库通过把这些资料收集并学习,形成了一个有别于大模型之外的私有模型。知识库的导入类型分为本地文档,在线数据,Notion, 飞书,自定义。本地文档包含三种1 文本格式:word,pdf,txt2 表格格式:excel,csv3 照片类型1本地文档首先上传一个MQTT协议的说明文档选择自动分段与清洗开始进行数据处理,完成后点击确认。

2024-07-15 21:04:09 805

原创 论文分享 | “大模型个性化”论文集锦

个性化文本生成是一个新兴的研究领域,近年来引起了广泛的关注。这一方向的大多数研究都集中在通过设计定制的特征或模型来专注于特定的领域。在本工作中,我们提出了一种使用大型语言模型(LLMs)进行个性化文本生成的通用方法。受到写作教育实践的启发,我们开发了一个多阶段和多任务框架,用于教授LLMs进行个性化生成。在写作教学中,从源材料写作的任务通常被分解为多个步骤,这些步骤涉及查找、评估、总结、综合和整合信息。类似地,我们的个性化文本生成方法包括多个阶段:检索、排名、总结、综合和生成。

2024-07-13 21:12:15 646

原创 AI大模型新型智算中心技术建设白皮书 2024

大模型技术的日新月异对智算底座的升级提出了高要求,由于硬件的迭代周期和成本都要远大于上层软件和算法,统筹考虑、超前布局基础设施技术方案尤为重要。面向新互联,面向百卡级别的高速互联需求,产业应联合打造统一的计算总线协议,实现缓存一致性的数据访问,并提升流量控制、拥塞控制、网络无损、重传等通信和数据传输能力,收敛技术路线,推动国内高速互联技术生态成熟;集群间基于 GSE 打造无阻塞、高带宽、低时延、自动化的新型智算中心网络,向更细粒度的负载分担、端网结合的拥塞控制和基于全局的智能运维三个方向不断演进。

2024-07-12 20:53:17 876

原创 Automa:一键自动化,网页数据采集与工作流程优化专家

解锁自动化浏览器潜能,赋能工作效率,让复杂任务变得简单-

2024-07-12 20:11:47 694

原创 如何预估训练或推理大模型时所需要的显存?解析不同参数下大模型显存量化方法

本篇讲述如何根据模型参数量,参数设置以及batch size推理所需要的GPU显存。假设现在想要全参数训练一个llama-6B的模型,那么如何预估自己需要准备多大显存的卡?当fp32、fp16、int8模式下时显存大小具体又有什么变化呢?本篇来解答这个问题。下面是一个快捷目录。1. 大模型RAM构成2. 一个大模型显存计算示例大模型所需要的考虑的显存包括三个部分:模型本身,CUDA kernel,batch大小模型本身需要的 RAM 大致分三个部分:模型参数、梯度、优化器参数。

2024-07-11 17:47:11 1250

原创 LLM 推理框架之上:10 中常见 LLM 推理系统总结

在 [2302.11665] AlpaServe: Statistical Multiplexing with Model Parallelism for Deep Learning Serving 中,作者证明了当为多个模型提供服务时,即使单个模型可以放置在单个设备上,模型并行性也可以额外用于多个设备的统计多路复用。文中作者也探索了模型并行性引入的开销与利用统计多路复用来减少存在突发工作负载时的服务延迟之间的权衡。

2024-07-10 20:57:18 788

原创 大语言模型笔面试

前馈网络在Transformer模型中起到了非线性变换和特征提取的作用,通过两个线性变换和一个非线性激活函数,它增强了模型的表达能力和特征提取能力。作为编码器和解码器层中的一部分,前馈网络与自注意力机制共同作用,构成了Transformer模型处理序列数据的基础。3 为何Transformer 模型中采用 Layer Normalization 而非 Batch Normalization?

2024-07-10 20:41:12 683

原创 医疗大模型“诸神之战”,谁能登顶“珠峰”?

早在2018年,

2024-07-10 20:27:05 878

原创 GLM-4已支持Ollama部署

GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B及其人类偏好对齐的版本均表现出超越 Llama-3-8B 的卓越性能。除了能进行多轮对话,GLM-4-9B-Chat还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。本代模型增加了多语言支持,支持包括日语,韩语,德语在内的26 种语言。

2024-07-09 20:57:07 908

原创 RouteLLM:帮你决定用哪个模型的的高效路由框架,实现成本节约85%!

并非所有问题都需要GPT-4!RouteLLM,一个基于人类偏好数据的路由框架,可以将简单查询引导至成本更低的模型。通过数据增强技术,RouteLLM在MT Bench上实现了超过85%的成本节约,在MMLU上实现了45%的成本节约,同时保持了95%的GPT-4性能。与商业产品(Martian和Unify AI)在MT Bench上进行比较,表现相当,同时成本降低了40%以上。我们的模型、数据集和用于服务和评估LLM路由器的代码都是开源的。我们很期待社区在此基础上构建更多创新!

2024-07-09 20:40:54 804

原创 AI Agent在金融领域的应用场景与落地案例

在数字化和智能化的双重浪潮下,人工智能(AI)技术正以前所未有的速度向前发展,从医疗健康到制造业,从教育到零售,AI技术的广泛应用正在重塑各行各业的运营模式和业务逻辑,同时也深刻改变着人们的生活方式。AI技术的应用范围日益广泛,无处不在地提供着便利和服务。在这样一个科技日新月异的时代,金融行业作为国民的经济脉络和促进经济发展的重要引擎,自然成为AI技术应用的重点领域之一。金融行业是一个信息密集、数据庞大、业务复杂的领域,对于数据的处理能力和分析精度有着极高的要求。

2024-07-09 20:16:46 758

原创 AIGC算法工程师面经:NLP基础篇——从分词、词表优化、词向量、词频、解码到设计分类模型

在具体讲之前先讲一下了解这个算法有什么用。假设有一道编程题目,描述为。

2024-07-08 21:36:59 712

原创 再来谈谈大模型的分离式推理架构

知乎上看到方佳瑞博士的一篇文章《LLM分离式推理可能带来的软硬件变革的迷思》恰逢这周工作上有一些和HugeCTR相关的事情, 那么就从软硬件一体化的视角来阐述一下整个架构的演进, 特别是在分离式推理架构上.

2024-07-08 21:22:43 856

原创 2024 人工智能最前沿:分享几个大模型(LLMs)的热门研究方向

使LLM根据不同内容生成更多样化的示例」**。SYNTHESIZRR在提升词汇和语义多样性、模仿人类文本以及提高模型微缩化性能方面,均优于传统方法。

2024-07-08 20:56:43 1006

原创 生成式AI教育图谱2024

教育科技博主Laurence Holt更新了2024版的生成式AI教育产品图谱(点击阅读原文)。经过一年多生成式AI的快速发展,教育领域迸发了大量新产品,但一个核心问题在于,“听上去挺好,但在什么场景中发生?”举个例子,AI具备不错的课程内容改编能力,可以把一堂常规的、讲授式的历史课堂改写为一个涵盖角色扮演活动的互动式课堂,但老师在什么场景下使用这个AI工具,在什么时间去上这堂课呢?这个问题犹如房间里大象,一些AI能力可能体验不错,但往往缺乏【空间】落地。

2024-07-07 10:45:00 962

原创 华泰 | 科技年度报告:模型篇 - AI大模型商业模式思考

本篇报告,我们通过对海内外AI大模型企业的研究,提供对AI大模型商业模式的思考框架:1)基础大模型未来的竞争格局方面,或赢者通吃,或国内外分别寡头竞争,而行业大模型则有望百花齐放;2)本轮AI应用中,“AI+”还是“+AI”能够取胜需要根据场景具体讨论,取决于AI在业务流程中是否具有护城河,以及AI在业务价值链的占比;3)开源模型和闭源模型在未来较长一段时间内将形成相互摇摆的博弈格局。目前,“基础大模型→行业大模型→终端应用”的大模型路线非常清晰。

2024-07-06 10:45:00 771

原创 AI深挖各行业数据价值,数智赋能未来可期

在这瞬息万变的世界,人工智能(AI)犹如一股破晓的曙光,以其无远弗届的影响力,逐渐勾勒出未来社会的宏伟蓝图。从理念的火花到现实的洪流,AI不仅催化了生产力的飞跃与资源的智能配置,更如一位精妙的矿工,在数据的瀚海中挖掘出前所未有的珍宝。此番征途,我们将携手潜入AI的深邃蓝海,细致考察其如何在医疗、教育、金融等十大关键领域挥洒创新的笔触,重塑业态格局,开启数智融合的全新时代。医疗健康,作为关乎民生福祉的首要领域,正经历着AI技术的深刻变革。

2024-07-05 20:43:50 786

原创 使用结构化医学知识库对大型语言模型进行知识调优,以在中文环境下生成可靠的响应

大型语言模型(LLMs)在通用领域的自然语言处理(NLP)任务中展示出了显著的成功。然而,由于领域知识有限,LLMs有时会生成关于医学事实的幻觉性回应。这样的不足在医学环境中利用LLMs可能存在潜在风险。为了解决这一挑战,我们提出了知识调整(knowledge tuning),利用结构化的医学知识库,使LLMs能够高效地掌握领域知识并实现可靠的回应生成。我们还发布了,一个从医学知识库构建的中文医学知识问答数据集,用于评估LLMs的医学知识水平。

2024-07-04 20:05:42 254

原创 阿里云 PAI 大语言模型微调训练实践

在机器学习的发展过程中,模型的开发与应用模式一直在不断迭代。传统的机器学习年代,机器学习工程师在采集数据之后,需要通过特征工程处理数据,使用模型训练。在深度学习的年代,计算资源更加丰富,模型层数增加,模型能够支持直接从原始的数据中端到端地进行训练,而不大量依赖于特征工程。到了预训练模型的阶段,在模型开发流程中,工程师更多得采用在基础的预训练模型上,使用少量数据微调的方式构建下游应用的模型。

2024-07-03 20:28:06 593

原创 《麻省理工科技评论》中国发布AI大模型先进应用案例,共同迎接面向企业和大众的人工智能新时代

分别入选 2001 年、2013 年、2018 年、2021 年、2023 年《麻省理工科技评论》全球十大突破性技术。这些技术为生成式人工智能发展到今天的状态奠定了基础。‍‍‍过去一年生成式人工智能已经成为人们讨论的中心话题,行业有「最」关心的话题、评论这是「最」卷的行业、形成「最」快速的增长与热潮、企业开展「最」激烈的竞争……同时我们也观察到,正在「变」快的立法速度、正在「变」务实的大众和企业……狂奔一年时至今日,

2024-07-03 20:02:33 856

原创 使用Llama3/Qwen2等开源大模型,部署团队私有化Code Copilot和使用教程

目前市面上有不少基于大模型的 Code Copilot 产品,部分产品对于个人开发者来说可免费使用,比如阿里的、百度的等。这些免费的产品均通过 API 的方式提供服务,因此调用时均必须、同时需要把Code Copilot的公网API调用针对小团队私有保密项目、创新团队孵化新产品,隐私安全问题就显得格外重要。因此,团队内部部署私有的方案就应运而出了:Code Copilot的内部API服务今天老牛同学和大家一起来使用构建个人或者团队专属的私有化,除了之外,还可以是支持、生成单元等功能。

2024-07-02 22:42:24 1070

原创 普林斯顿&牛津大学 | 大模型在金融领域的应用、前景和挑战

Content论文链接:[2406.11903] A Survey of Large Language Models for Financial Applications: Progress, Prospects and Challenges (arxiv.org)本文作者来自普林斯顿和牛津大学。论文全面探讨了大语言模型(LLMs)在金融领域的应用,包括它们的进步、前景和挑战。引言介绍了金融领域的复杂性和技术融合的重要性,并强调了大型语言模型(LLMs)在金融领域应用的潜力和优势。

2024-07-02 22:11:23 567

原创 实战大规模GPU集群推理部署

最近在Tesla V100 32GB 8GPUs x 1000 nodes的大规模集群的工作中,收获不少宝贵一手经验——【硬件问题】首先了解到,在这样规模的集群下,GPU硬件本身出问题的几率很大。第一类问题是ECC,数据校验错误。数据校验错误那是内存存储出了问题。第二类是AsyncEngineDeadError:这个虽然是vLLM抛出的错误(Error),具体原因不明,但似乎跟GPU密切相关。很可能也是GPU有硬件问题。

2024-07-01 11:45:00 1160

原创 万亿赛道!向量数据库--AI 大模型技术底座解决方案深度分析 2024

向量数据库作为新型技术,发展时间较短,开源和上云是目前的主流趋势。在向量数据库领域早期的探索,主要是以Zilliz、Weaviate和Pinecone等初创型公司引领。在AI大模型未被普遍应用之前,该产品的需求较少,因此,初创型公司开发的向量数据库产品多以开源的形式培育社区生态,以及上云的方式扩大用户覆盖面。随着向量数据库在AI大模型中应用的重要性逐渐被挖掘,各厂商加大了该领域的研发。

2024-07-01 10:45:00 795

原创 ChatDoctor: 在大型语言模型Meta-AI (LLaMA)上使用医学领域知识进行微调的医疗聊天模型

这项研究的主要目的是通过创建一个在医疗建议方面具有更高准确性的专业语言模型,来解决在诸如ChatGPT等流行的大型语言模型(LLMs)中观察到的医学知识局限性。Methods。

2024-06-30 20:28:35 419

原创 【RAG入门必备技能】Faiss框架使用与FaissRetriever实现

faiss是一个Facebook AI团队开源的库,全称为Facebook AI Similarity Search,该开源库针对高维空间中的海量数据(稠密向量),提供了高效且可靠的相似性聚类和检索方法,可支持十亿级别向量的搜索,是目前最为成熟的近似近邻搜索库官方资源地址https://github.com/facebookresearch/faiss。

2024-06-29 22:02:20 581

原创 跨领域知识融合:RAG模型在医疗、法律、金融等领域的应用探索

大语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了显著进展。以 GPT-4、BERT 等为代表的预训练语言模型在文本生成、语言理解、机器翻译等任务上表现出色。然而,这些模型在跨领域应用时仍面临诸多挑战。本文将深入分析利用大语言模型进行跨领域文本生成的难点,并提出相应的解决方案,为 NLP 从业者和研究人员提供参考。

2024-06-29 21:40:37 372

原创 基于LangChain-Chatchat实现的本地知识库的问答应用-快速上手(检索增强生成(RAG)大模型)

一种利用 langchain思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。受 GanymedeNil 的项目 document.ai和 AlexZhangji创建的 ChatGLM-6B Pull Request启发,建立了全流程可使用开源模型实现的本地知识库问答应用。

2024-06-29 21:21:15 549

原创 ollama+Obsidian, 自定义构建本地AI 写作助理,不用联网

ollama+obisidian 能够读取obsidian 的所有文档,直接在 obsidian 实现本地知识库问答和大模型对话对于像我这样的用 obsidian 作为写作工具的文字工作者来说, 这个组合实在是很有用,我在写文章时就下载了 ollama,并用 ollama 下载了 4 位量化的 llama 70B 模型, 只占 30G 内存,运行速度是很快的ollama 配置直接去 ollama 官方就有下载教程, 先把 app 下载了,在在终端运行。

2024-06-29 20:05:59 862

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除