人工智能
文章平均质量分 89
YoungerChina
目前从事存储与计算相关的架构设计和研发管理工作
展开
-
Sora爆火,多模态大模型背后的存算思考
随着OpenAI推出Sora,人工智能从文本到文本、文本到图片的生成模式,进阶到文生视频。其文本到视频的模型能够生成长达一分钟的视频,在保持视觉质量的同时并严格遵循用户的提示,使得“扔进一本小说,生成一部电影”的想法成为现实。OpenAI将这一创新描述为构建“物理世界的通用模拟器”,这不仅是一项技术突破,也是人工智能领域探索的又一里程碑。原创 2024-03-13 16:00:00 · 1702 阅读 · 0 评论 -
业界主流数据加速技术路线
计算存储分离已经成为云计算的一种发展趋势。在计算存储分离之前,普遍采用的是传统的计算存储相互融合的架构,但是这种架构存在一定的问题,比如在集群扩容的时候会面临计算能力和存储能力相互不匹配的问题。用户在某些情况下只需要扩容计算能力或者存储能力,而传统的融合架构不能满足用户的这种需求,进行单独的扩充计算或者存储能力;其次在缩容的时候可能会遇到人工干预,人工干预完后需要保证数据在多个节点中同步,而当有多个副本需要同步时候,可能会造成的数据丢失。而计算存储分离架构则可以很好的解决这些问题,使得用户只需要关心整个集群原创 2024-03-11 18:00:00 · 864 阅读 · 0 评论 -
论文导读:消费级大模型Yi (零一万物技术揭密)
Yi模型家族是一系列展示出强大多维能力的自然语言和多模态模型。Yi模型家族基于6B和34B预训练语言模型,然后我们将其扩展到聊天模型、20万长上下文模型、深度扩展模型和视觉-语言模型。原创 2024-03-10 17:54:58 · 1057 阅读 · 0 评论 -
存算一体成为突破算力瓶颈的关键技术?
在GPT-2之前的模型时代,GPU内存还能满足AI大模型的需求,近年来,随着Transformer模型的大规模发展和应用,模型大小每两年平均增长240倍,实际上GPT-3等大模型的参数增长已经超过了GPU内存的增长。基于存算一体超异构概念,亿铸科技提出了自己的技术畅想:若能把新型忆阻器技术(RRAM)、存算一体架构、芯粒技术(Chiplet)、3D封装等技术结合,将会实现更大的有效算力、放置更多的参数、实现更高的能效比、更好的软件兼容性、从而突破性能瓶颈,抬高AI大算力芯片的发展天花板。原创 2024-03-09 22:52:19 · 989 阅读 · 0 评论 -
大模型专题报告:百模渐欲迷人眼,AI应用繁花开
工业革命级的生产力工具。目前,ANI已经广泛应用,AGI处于研发阶段,大模型是实现AGI的重要路径。AI大模型通过预先在海量数据上进行大规模训练,而后能通过微调 以适应一系列下游任务的通用人工智能模型。在“大数据+大算力+强算法”的加持下,进一步通过“提示+指令微调+人类反馈”方式,实现一个模型应用在很多不同领域。原创 2024-03-07 08:48:46 · 1004 阅读 · 0 评论 -
华金证券2024:以“芯”助先进算法,以“算”驱万物智能
大模型技术所带来的突破以及商业化前景促使全球进 入AI竞赛,其中,美国在AI领域依旧担当着创新者和引领者的身份。大模型的发展依托于强大 的算法、庞大的数据量以及巨大的算力支撑,当下大模型逐步从单模态走向多模态,对于以英 伟达GPU为代表的算力需求快速爆发,全球范围内算力芯片的供需缺口一定程度上降低了多模态 大模型的发展速度,但依旧无法阻止AI技术向前演进以及商业化逐步落地,因此而对国内外算 力产业链带来了巨大的发展机遇。原创 2024-03-06 09:25:07 · 341 阅读 · 0 评论 -
中航证券2024 AI智算时代已至,算力芯片加速升级
智算中心的发展基于最新人工智能理论和领先的人工智能计算架构,当前算法模型的发展趋势以Al大模型为代表,算力技术与算法模型是其中的核心关键,算力技术以Al芯片、Al服务器、Al集群为载体。原创 2024-03-06 09:08:19 · 977 阅读 · 0 评论 -
论文导读:万卡集群训练大模型(by字节跳动)
字节跳动提出了万卡集群大模型训练架构MegaScale,并在12288个GPU上训练一个175B LLM模型时,用MegaScale实现了55.2%的MFU,比Megatron-LM提高了1.34倍;提供了万卡集群训练大模型的踩坑经验;证实了强大完备的训练基础设施(包含各种各样的诊断工具、监测工具、可视化工具等)对高效、稳定训练LLM至关重要;原创 2024-03-05 17:28:34 · 3286 阅读 · 0 评论 -
ChatGPT带火的HBM是什么?
HBM(High Bandwidth Memory)即高带宽存储器,是基于硅通孔(TSV)和微凸点(Microbump)技术将多个DRAMdie和Logicdie堆叠而成的具有三维结构的存储产品。原创 2024-02-26 10:49:56 · 1599 阅读 · 0 评论 -
从ChatGPT到Sora,来了解大模型训练中的存储
清华大学舒继武团队分析了大模型训练的存储挑战,指出大模型训练的存储需求大,且具有独特的计算模式、访存模式、数据特征,这使得针对互联网、大数据等应用的传统存储技术在处理大模型训练任务时效率低下,且容错开销大;分别阐述了针对大模型训练的3类存储加速技术与2类存储容错技术;并进行了总结和展望。原创 2024-02-24 23:22:19 · 2111 阅读 · 0 评论 -
Groq大模型推理芯片每秒500tokens超越GPU?
Groq的处理器是LPU(Language Processing Unit,语言处理单元),可以为诸如AI语言应用程序(LLM)等提供最快的推理速度。取胜的核心技术是Groq首创的LPU技术。原创 2024-02-23 00:30:00 · 1689 阅读 · 0 评论 -
OpenAI Sora模型,官方技术文档翻译
本技术报告的重点是(1)将所有类型的视觉数据转化为统一表示,从而能够大规模训练生成模型的方法;以及(2)对Sora的能力和局限性的定性评估。原创 2024-02-23 01:00:00 · 1113 阅读 · 0 评论 -
中金:从OpenAI Sora看视频生成模型技术进展
延续DiTs架构,Sora实现高质量长视频生成。根据技术报告,Sora延续DiTs架构,随训练计算量提升而展现出显著的生成能力提升(Scalable)。转载 2024-02-22 10:01:41 · 77 阅读 · 0 评论 -
对话ChatGPT:AIGC时代下,分布式存储的应用与前景
作为始终致力于行业创新应用与数据存储技术融合发展的国内领先存储厂商,今天我们“邀请”到ChatGPT对以下问题进行作答,看看它在回答存储专业问题方面的表现。原创 2023-09-19 08:53:11 · 2286 阅读 · 0 评论 -
AIGC数据处理与存储解决方案
针对在AIGC的场景下,如何解决在AIGC训练过程中数据的存储和数据处理的问题,杨冠军从三个方面进行介绍与解读:一是AIGC对存储提的新需求;二是介绍腾讯云可以给用户提供的整体存储解决方案;三是腾讯云提供的整体数据处理方案。原创 2023-09-19 08:47:50 · 2068 阅读 · 0 评论 -
【整理】text2kgbench: 语言模型根据本体生成知识图谱的能力
该论文的研究背景是大型语言模型(LLM)和基于本体的知识图谱(KG)在自然语言处理(NLP)任务中的性能提升。 过去的方法存在一些问题,该论文提出的方法通过从文本中生成KG并遵循给定的本体,解决了这些问题,并鼓励了新的方法。 本文提出了Text2KGBench,一个基准测试,用于评估语言模型根据本体从自然语言文本中生成KG的能力。该方法使用两个数据集和七个评估指标来评估抽取性能、本体合规性和LLM的"幻觉"。还提供了两个基准模型的结果。原创 2023-09-18 07:20:12 · 1993 阅读 · 0 评论 -
【整理】难得的中文开源数据集
上海人工智能实验室搞了一个OpenDataLab,上面发布了5000+的中文的开源数据集,可以随意下载下来,用来训练自己的AI大模型的,真的是功德无量啊。原创 2023-09-18 07:18:31 · 2732 阅读 · 0 评论