AI真·炼丹:整整14天,无需人类参与

现在制药这事,人类要靠边站了。

坐标苏州,这是一个1600平的制药实验室,它的“打开方式”是这样的:

门口,没有人

图片

走廊,没有人

图片

实验室,也没有人

图片

相比以往充斥着科学家、研究员的实验室,它更多的是把机械臂和AI系统塞了进去,主打的就是一个全自动化

或许好奇的小伙伴就要问,这样的实验室能干嘛?就是为了自动化而自动化嘛?

事情当然没有那么简单,你瞧见的只是无人的操作,但在背后,AI做的可远远不只是替代人工的实验室操作那么简单,而是:

14天内完成靶点发现和验证,还是全自动化干湿实验闭环的那种。

要知道,这个过程要放以前,可是需要足足2-3年才能完成……

图片

而且更为精细化的工作,例如样本处理细胞培养化合物管理高通量筛选新一代测序高内涵成像等等,不论是单一任务还是“联动”任务,机器都可以在AI的控制下轻松接手。

图片
用Echo 650T制备检测板
图片
用NovaSeq 6000测序

这便是来自全球AI制药第一梯队的“选手”——英矽智能(Insilico Medicine)的第六代智能机器人实验室,也是全球首个用AI参与决策的生物学实验室

而在它背后驱动这一切的AI大脑,则是一个叫做PandaOmics的平台,可以根据实验的进程自主做决策、下达指令。

若是把这个AI平台单拎出来,它更是囊括了20多种预测模型和生成生物学模型,还包含遗传学、蛋白质组学、甲基化数据、文本文献和科研基金等海量数据,用以支持专业的靶点识别、分析和排序、适应症探索等生物学研究。

甚至已经有高中生用PandaOmics发现了药物新靶点,并且研究成果还登上了国际学术期刊!

图片

而且除了PandaOmics之外,英矽智能在人工智能制药领域拥有端到端的药物发现平台Pharma.AI,其中专注于化学领域的Chemistry42,还可以针对给定靶点从头设计具有特定属性药物理化性质的新型小分子。

这一切都可以在几小时到几十小时内完成,且支持并行运行多个任务。

图片
图片

以及英矽智能还将科技圈最潮的大模型也融入进来,在Pharma.AI的架构上推出Copilot系统,让你只要会对话就能使用专业的AI制药平台。

图片

由此可见,现在AI不仅是把制药这件事变成了“自动驾驶”模式,更是狠狠地把门槛打下去效率提上来

图片

AI制药的流程和工作是方便了,但随之而来的一个问题便是:如此大的工作量,算力,又是如何解决的呢?

科学计算与AI,CPU都在发力

对于上述的问题,包括英矽智能在内的AI制药头部力量们不约而同的选择了相似的解决办法:

充分利用所有可以用、值得用的科学计算与AI算力平台。这种平台可不是你想象的那样被GPU制霸,相反,其中的CPU用量更大,尤其是英特尔的CPU

为什么要选择英特尔?

首要的一个原因,就是英特尔供企业计算及科学计算使用的主力CPU,即至强® 可扩展处理器系列产品,一直都是物理计算——无论是昔日计算机辅助制药,还是今天AI辅助制药都非常依赖的科学计算应用的关键承载平台。

另一方面,就算是把应用的主题从相对传统的制药相关的科学计算任务,切换到更偏AI的应用上,英特尔也算是颇有建树,这一点从它对以AlphaFold2为代表的开源蛋白质预测模型的支持上就可见一斑。

图片
AlphaFold2基本架构

⾸先,AlphaFold2整个端到端的处理过程,涉及⼤量复杂多样的计算类型。从早期的数据收集、特征提取等预处理阶段,到基于深度学习的蛋⽩质结构预测,再到后续的结果分析,这是⼀个⾼度异构的⼯作负载。

⽽英特尔® ⾄强® 可扩展处理器可以轻松胜任这一系列多样化的任务。以⾄强® CPU Max系列处理器为例,它采⽤全新微架构、更多内核(最⾼达56个),能以更⾼频率和更⼤缓存,去应对⾼通量的预处理和后处理⼯作。

它在内存和输入/输出(I/O)子系统性能上有着显著的增强,还结合大容量末级缓存使AlphaFold2推理过程中关键的张量吞吐获得了大幅提升。

图片
英特尔® 至强® CPU Max 系列处理器

其次,由于AlphaFold2所采⽤的深度学习模型规模巨⼤,推理过程中的张量运算不仅量⼤,且维度极⾼。这就要求承载平台具备强⼤的AI运算加速能⼒。

在这⼀点上,新款⾄强® 系列处理器内置的英特尔® AMX(⾼级矩阵扩展)技术,可以显著加速⼤规模矩阵乘法运算。

在FP32/BF16混合精度计算下,其理论峰值可达每时钟周期1024次乘加操作。针对AlphaFold2推理任务中所需的大量矩阵运算操作,AMX_BF16能在保持较高精度的同时,提高计算速度并减少存储空间。

图片

AMX_BF16推理优化带来更低内存占用和更大输入长度

另⼀⽅⾯,AlphaFold2因其⾼维张量运算和⻓序列并⾏计算,在推理过程中常⾯临超⼤内存需求,不光影响推理速度,还会限制更⻓蛋⽩质序列的预测。

为此英特尔从软硬协同的方式给出完整解决方案。

一面是提升内存容量和带宽。解决方案中,英特尔® ⾄强® CPU Max系列处理器除支持DDR5内存外,还集成了HBM(⾼带宽内存)。单颗处理器的HBM容量⾼达64GB,且具有高达460GB/s带宽。

另一面是提供了多种降低内存的软件优化方法。如面向PyTorch对张量计算原语(Tensor Processing Primitives,TPP)技术进行扩展,以及切分Attention模块和算子融合的推理优化方案,帮助AlphaFold2在通用矩阵乘法计算中所需的内存峰值大幅降低。

图片
热点算子与融合效果

经过一系列加强和优化后,最终效果如何呢?

如图所示,在基于至强® CPU Max系列处理器的优化流程中,每个优化步骤获得的提升累积后,获得了相对于基线性能(对比组1,基于第三代至强® 可扩展处理器,未实施优化)高达33.97倍的通量提升。

根据测算,性能提升中的74%源自预处理阶段的高通量优化,26%要归功于对推理过程的优化。

此外,在同样开启IPEX(面向PyTorch的英特尔® 扩展优化框架)的情况下,相比对比组2(基于第三代至强® 可扩展处理器,但实施过优化),方案在升级使用至强® CPU Max 系列处理器后,其内置的HBM内存、英特尔® AMX的加成,则带来了48.3%的性能提升。

图片
切分Attention模块和算子融合的推理优化方案

而且值得一提的是,在一项基于某公有云服务的测试中,基于至强® CPU平台构建的AlphaFold2解决方案还在性能上获得了远优于某高端GPU平台的表现,同时也优于由CPU+GPU混合构建的方案。

这可是一个非常难得的成绩——毕竟过去在很多AI应用的测试或实战中,CPU能有接近或媲美GPU的表现就已经算是成功,而AlphaFold2上至强® 平台则实现了性能+蛋白质预测序列长度的全面反超

现在还剩下最后一个问题,多个蛋白结果的解析模型AlphaFold2 Multimer。

也就是从预测单个蛋白质三维结构,发展到了对多个蛋白质分子之间的相互作用及所形成的复合体结构进行预测。

CPU在这一演变过程中的支持力度如何呢?

答案是不用担心!

基于英特尔® 架构的AlphaFold2解决方案同样也面向AlphaFold2 Multimer的管线结构进行了优化与验证。

虽然后者的管线结构已根据蛋白质复合体结构预测的需求进行了调整,但英特尔AlphaFold2上的优化方案,在被用于AlphaFold2 Multimer时同样有效。

图片
面向AlphaFold2 Multimer模式的方案实现

CPU加速新药发现不是梦

回顾以往,研发⼀种新药动辄需要10年时间,投⼊20亿美元才能起步。

图片

⽽在AI的助⼒下,这⼀成本正⼤幅降低。以英矽智能为例,它们进展最快的项目仅⽤18个⽉就找到了治疗特发性肺纤维化(IPF)的潜在全球首创候选药物并通过实验验证,总成本约为280万美元。

展望未来,随着AI技术的进⼀步发展渗透,它必将重塑制药业的创新模式,让新药研发变得更加⾼效、精准、经济。而在这一进程中,相关的科学计算及AI应用任务,依然需要有强大的算力支撑。

从英矽智能等公司的实践来看,以⾄强® 处理器为代表的CPU平台,正凭借其在性能、成本、⽣态等⽅⾯的独特优势,成为推动AI时代制药创新的重要“引擎”。

这也预⽰着,在AI改变众多⾏业的当下,CPU加速AI应用落地,帮助用户节支增效以及推进其技术和业务创新的脚步从未停止。

AI让新药研发进⼊“⾃动驾驶”模式,⽽英特尔® ⾄强® 处理器则提供了它所需的源源不断的动⼒。

在这种合作模式下,AI+制药还将擦出怎样的⽕花,就很值得期待了。

为了科普CPU在AI推理新时代的玩法,量子位开设了**《最“in”AI》**专栏,将从技术科普、行业案例、实战优化等多个角度全面解读。

我们希望通过这个专栏,让更多的人了解英特尔® 架构CPU在AI推理加速,甚至是整个AI平台或全流程加速上的实践成果,重点就是如何更好地利用CPU来提升AI,包括大模型应用的性能和效率。

未来随着英特尔AI产品技术组合的进一步扩展和丰富,我们还将在这里为大家提供更多产品技术上的优秀用例与方案分享,以及技术应用指南。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值