来感受一下“人工智能+”,三甲医院是这样用大模型的

当去年GPT4公布的时候,我们大吃一惊,哪有这样的事;过若干时间后淡忘了,因为你也没有用过

今年突然出现Sora,惊呆了,文字就能出来一幕剧;难道仅仅是如此吗?不是,都说明我们没有用上

我的意思是,需要让一部分人先用起来。

今年,围绕AI的最前沿科技依旧是大热门的话题,而上述这段话正是来自全国政协委员周汉民。此建议一出,可谓是立即在网上掀起了不小的热潮。

而之所以会有如此建议,是因为在周汉民看来,对于这些最前沿的技术是要尽快体验和使用的:

如果你不够了解,就会处于劣势。

因为它所带来的是以点带面、连线成片的巨大影响效应。

不难看出,其核心观点,就是技术需要被用起来,要尽快地做到落地

而这也应了自ChatGPT引爆AIGC大热潮以来的一个大趋势,即从大模型的训练逐渐向推理过渡,从底层的模型层逐渐向顶层的应用甚至是更进一步的行业或消费者应用发展。

但毕竟像Sora这样的技术也是刚问世不久,诸多技术和体验方式还并没有对外开放;而大语言模型(LLM),则是已然火了整整一年有余。

由此能联想到的一个问题便是——LLM,现在用得怎么样了?

让我们先拿医疗行业的实践举个例子图片

无论是以往传统AI,还是当下顶流大模型,医疗领域一直都是一个非常典型且亟需AI支持的大行业场景,AI的融入,能肉眼可见地提高医疗服务的效率和质量、应对医疗资源短缺的挑战、以及推动个性化医疗的发展等。

让我们从电子病历上来个“以小见大”。

一方面,与之相关的工作可以说是非常的繁杂,大量的文本信息需要人为手动地去输入,在有些医生详细追踪患者的情况下,病历甚至可长达万字之多,极容易出现错误录入的情况。

另一方面,电子病历又会影响到医生和医疗工作者的判断,因为他们需要对电子病历有着深入的洞察,以便发现潜在的健康风险和疾病模式。

其在医疗工作环节中的重要性可见一斑。而诸如LLM这样的AI技术,恰巧能够很好地满足对大量文本内容的信息化、数字化以及深入理解,正好可以用来做病历的归纳、纠错和重要信息的提炼,而且这类活儿恰好苦到,或者累到……所有“正常人类”都不太愿意干。

图片

那么这些工作让AI来代劳,又能带来什么样的效果呢?我们不妨以深耕医疗行业多年,并且已经帮助众多头部三甲医院完成信息化和数字化的卫宁健康为标杆来一探究竟。

卫宁给出的一套解决方案叫做WiNEX Copilot,如其名,它在医疗领域所发挥的作用,正是充当医生和相关工作者的AI助手。

在WiNEX Copilot病历文书助手的加持之下,医生们可以一键生成符合医疗规范和匹配患者个人病情的病历文书段落,大幅减少病历记录书写工作量,可以让他们更专注于诊断和治疗。

【一一AGI大模型学习 所有资源获取处一一】

①人工智能/大模型学习路线

②AI产品经理入门指南

③大模型方向必读书籍PDF版

④超详细海量大模型实战项目

⑤LLM大模型系统学习教程

⑥640套-AI大模型报告合集

⑦从0-1入门大模型教程视频

⑧AGI大模型技术公开课名额

从披露的数据来看,只需要给它8个小时(例如在医生下班后的时间),病历文书助手就可以处理近6000份病历,相当于三甲医院12名医生一天工作量的总和!

图片

而这也还仅是LLM上岗医疗的一隅,WiNEX Copilot还具备怎样的实力,我们继续往下看。

AI医生助手为什么值得拥有

实际上,WiNEX Copilot已深度集成到卫宁新一代产品WiNEX中,除了前面提到的病历文书助手,我们还可以举几个有代表性的场景来进一步展示它的实力。

在放射科,WiNEX Copilot影像报告助手就能帮助医生提升诊断质量,降低误诊率。

根据影像医生写下的影像检查所见情况文字描述,这个小助手就可以自动生成影像诊断结论,包括具体的病变名称或诊断、随访建议等。

医生可基于对自动生成内容准确度的判断,灵活选择一键引用或重新生成。

图片

对于影像报告的完整书写工作来说,这就相当于人类医生和AI合作完成了一轮交叉核对,减轻影像科医生的工作负担,降低误诊漏诊风险,提高影像报告质量。

特别是遇到有多次检查记录的随访患者,系统可自动调出相关的报告辅助对比分析,让诊断结论更严谨、完整、准确。

图片

再如WiNEX Copilot药品知识助手,不仅能从海量的医药文献和数据库中快速检索出与用户查询相关的精确知识,还能基于这些信息生成通俗易懂、内容准确的回答。

这样一来,就相当于给医护人员提供了一个外挂的药品知识库,面对不断更新的药品信息,也能跟得上变化。

图片

就像这样,WiNEX Copilot对接上具体细分的医疗业务场景,就会立即摇身变成医护人员的全方位、多维度智能助手。

目前WiNEX Copilot已经集成在卫宁健康WiNEX全系列产品中,覆盖医院管理、医生增效和患者服务等100多个临床应用场景。

图片

所有这一切,看着炫目又实用,一定需要氪不少金才能拥有吧?

划重点了,它的硬件成本非常合理,性价比也许出乎你的预料。而且更重要的是其实际部署和应用也非常高效,能在任何一家已经使用WiNEX系统的医院迅速“上岗”。

这,又是怎么做到的?

用CPU加速AI落地

可以把AI产品做到既贴近用户需求,又能把它落地和部署的效率拉满,这对于卫宁健康来说其实是相辅相成的。

作为国内医疗信息化领域龙头企业,卫宁健康服务的各类医疗卫生机构用户达 6,000 余家,其中包括 400 余家三级医院,覆盖智慧医院、区域卫生、基层卫生、公共卫生、医疗保险、健康服务等多个领域。

在技术方面,卫宁健康还拥有成体系的系统研发、AI和大数据技术转化能力。

到了大模型时代,卫宁健康多年积累的医疗行业经验、高质量训练数据和研发能力就起到了关键作用——

在三项优势的综合下,推出面向医疗垂直领域的大模型WiNGPT。

图片

WiNGPT正是WiNEX Copilot的底层AI引擎,它一个突出特点就是结合高质量医疗数据,可针对医疗场景优化和定制。

从2023年初开始研发,到10月正式发布时预训练数据20G,微调数据更是达到50万条。

WiNGPT另一个突出特点就是能高效交付、部署和应用了。

卫宁健康为此选择与英特尔合作,通过软硬适配、优化模型算法等手段,把在CPU上部署的生成效率搞到接近GPU的水平。

为什么要选择这一条技术路线,与CPU本身的能力和医疗行业的特点都脱不开关系。

首先,高端CPU近年来瞄准AI市场持续发力,内置的AI加速技术的性能已经能够满足需求。

这一步在应用部署方面更看重的推理算力方面表现得更为突出。

例如卫宁选用的第五代英特尔® 至强® 可扩展处理器,内置了AMX(高级矩阵扩展)加速技术。相比同样内置AMX的第四代至强® 可扩展处理器,得益于自身在微架构和整体性能上的提升,第五代的推理性能提升高达42%;而与内置了矢量加速指令集,即深度学习加速(DL Boost)技术的第三代至强® 可扩展处理器相比,其AI训练和推理性能提升更是高达14倍。

图片

其次,在医疗行业数字化过程中,CPU已有非常广泛的使用基础。

这一点行内人都知道,广泛应用的电子病历系统、医院资源规划系统以及患者管理系统等等,都需要处理大量的数据,并且要求高可靠性和实时性。

因此CPU早就已经是医疗行业经常采购的设备,不像专用AI加速器或者GPU还需要特批采购流程,选择在CPU上落地AI应用自然更平滑顺畅。

再进一步来说,CPU得益于这种基础,积累了充足的技术人才储备,更易于优化和使用。

CPU群众基础广泛,易于使用、有较出色的可靠性,在医疗行业历经考验的同时,也积攒了大批相关专业人才。

这些人才,和卫宁健康自己的专业人才,再加上合作伙伴英特尔方面的工程师协作,推进AI应用落地时,无论业务方案还是硬件优化方面都能做到就绪程度更高,上手更快。

综合来看,如果这样一个AI 应用能在拥有广泛部署、易于获取,便于应用和优化,能兼顾通用计算又能做推理加速的平台上落地,且不用为此导入异构带来的各种复杂性,自然就会收获高效的应用表现、落地速度和更会有的成本竞争力。

具体到实际表现上——在卫宁健康和英特尔共同对WiNGPT的推理进行优化后,提升了内存使用效率,并通过对 PyTorch在CPU平台上主要算子的算法进行改良,进一步加快了深度学习框架的推理速度。

而在测试中,将基于第五代英特尔® 至强® 可扩展处理器的方案与基于第三代英特尔® 至强® 可扩展处理器的方案进行了对比,结果显示,新一代处理器可将性能提升多达 3 倍。

同时,CPU方案还具有可以更轻松扩展推理实例数量的优势,并且可以在各种平台上适配进行推理。

图片

所有这些优势叠加的结果,就是能让每家已经用上卫宁新一代产品WiNEX系统的医院,都有机会拥有WiNGPT支持的全套WiNEX Copilot医护智能助手。

CPU成了大模型时代下的另一种解法

那么我们现在再来回答最初的那个问题:如何把LLM用好?

首先非常确定的是,目前的大模型已然是步入到了拼谁可以**“快好省”地用起来**的阶段。

这种趋势从去年便已开始崭露头角,例如从ChatGPT问世之后,国内外先是呈现出了百模大战这种以训练为基础的态势。

而后从下半年至今,则是在训练完大模型的基础之上,更多企业都在思考的则是如何将LLM真正地扎根到行业里。

卫宁这个例子,可以说是较为成功的范例,这不仅是得益于它长期在以大模型为代表的前沿技术上的跟进与创新,更是基于它对于医疗行业的深耕;因此才可以抓住医疗领域的痛点,并让LLM在其中发挥更大的价值。

由此来看,如何能把LLM用好,需得先有深厚的行业积累、有洞悉,方可精准切入。

诚然,全球步入大模型时代之后,GPU或专用的加速器无疑成为了香饽饽,并且越发呈现出千金难求的局面。

然而这就是所有场景中的最优解吗?不见得。

正如我们刚才所言,不论是传统的AI技术亦或是LLM,要想很好的落地需得是做到“快好省”。

若是在部署时盲目堆GPU,一是可能会出现算力上的过剩甚至浪费,二是在落地效率上可能达不到那么高,同时成本也可能会水涨船高。

因此卫宁pick老牌芯片巨头英特尔的最新一代至强,也是从性能、行业、人才、到成本等一系列因素深入考量之后所做出的较优解;而从结果上来看,CPU也正在实实在在地助力着LLM在医疗领域大展拳脚。

所以,到了今天,我们会突然发现,一个有意思的新趋势是:CPU成了大模型落地的另一种解法。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解
  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望
阶段3:AI大模型应用架构实践
  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景
学习计划:
  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 24
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值