巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

浪潮人工智能研究院推出了拥有2457亿参数的「源1.0」模型,通过图灵测试,平均误判率达到50.84%。该模型在中文诗歌、新闻生成等方面展现出优秀能力,标志着大模型在通用性和小样本学习上取得显著进步,有望推动AI产业化和产业AI化。
摘要由CSDN通过智能技术生成

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

作者 | 琰琰

战鼓催征千嶂寒,阴阳交会九皋盘。

飞军万里浮云外,铁骑丛中明月边。

看到这首诗歌,有超过50%的人误以为是人类的杰作

但其实,它出自巨量模型 源1.0

经过图灵测试认证,源1.0 写诗歌、写对联、生成新闻、续写小说的能力已经让人类的平均误判率达到了50.84%。(超过30%即具备人类智能)

9月28日,浪潮人工智能研究院正式发布全球最大中文预训练语言模型“源1.0”。历时四个月研发,源1.0参数量已达2457亿,约GPT-3的1.4倍。

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

中国工程院院士、浪潮首席科学家王恩东表示,源1.0巨量模型旨在打造更“博学”的AI能力,未来将聚合AI最强算力平台、最优质的算法开发能力,支撑和加速行业智能转型升级,以更具备通用性的智能大模型成就行业AI大脑。

“源1.0”定位中文语言模型,由5000GB中文数据集训练而成。在国内,以中文语言理解为核心的大模型不在少数,参数规模均在亿级以上,悟道· 文源 26 亿,阿里PLUG 270 亿;华为&循环智能「盘古」1100亿。

相比之下,2457亿的 源1.0 可以说是单体模型中绝对的王者。

更值得关注的是,源1.0是业界首个挑战“图灵测试”,并使人类平均误判率超过50%的巨量模型。

图灵测试是判断机器是否具有智能的最经典的方法。通常认为,进行多次测试后,如果人工智能让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

源1.0逼近通过图灵测试,再次证明了大模型实现认知智能的潜力。

1 为何加入这股“浪潮”?

近几年,巨量模型在人工智能领域大行其道,BERT、GPT-3、Switch Transformer、悟道2.0相继问世,出道即巅峰,在产学各界掀起一阵阵巨浪。如今“巨量模型”一词已经成功破圈,成为全民热词。

不少朋友不禁疑问,人工智能遇到了哪些瓶颈,巨量模型带来了哪些可能性?

在会后采访中,浪潮信息副总裁、AI&HPC产品线总经理刘军表示,人工智能模型目前存在诸多挑战,当前最首要的问题是模型的通用性不高,即某一个模型往往专用于特定领域,应用于其他领域时效果不好。

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

也就是说,面对众多行业、诸多业务场景,人工智能需求正呈现出碎片化、多样化的特点,而现阶段的AI模型研发仍处于手工作坊式。

从开发、调参、优化、迭代到应用,AI模型研发成本极高,且难以满足市场定制化需求,而训练超大规模模型在一定程度上解决了通用性的难题,可以被应用于翻译,问答,文本生成等涵盖了自然语言理解的所有领域。

具体来说,从手工作坊式走向“工场模式”,大模型提供了一种可行方案,即“预训练+下游微调”,大规模预训练可以有效地从大量标记和未标记的数据中捕获知识,通过将知识存储到大量的参数中并对特定任务进行微调,极大地扩展了模型的泛化能力。

同时大模型的自监督学习方法,使数据无需标注成为可能,在一定程度上解决了人工标注成本高、周期长、准确度不高的问题。

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

刘军解释说,大模型最重要的优势是表明进入了大规模可复制的产业落地阶段,只需小样本的学习也能达到比以前更好的能力,且模型参数规模越大这种优势越明显,不需要开发使用者再进行大规模的训练,使用小样本就可以训练自己所需模型,能够大大降低开发使用成本。

现阶段,零样本学习和小样本学习是最能衡量巨量模型智能程度的两项测试。而源1.0在CLUE基准上刷新了多项任务的SOTA。

官方数据显示:源1.0在零样本榜单中,以超越第二名18.3%的绝对优势遥遥领先。

  • 在文献分类、TNEWS,商品分类、OCNLIF、成语完型填空、名词代词关系6项任务中获得冠军。

  • 在小样本榜单中,文献分类、商品分类、文献摘要识别真假、名词代词关系4项任务中获得冠军。

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

https://www.cluebenchmarks.com/zeroclue.html

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

https://www.cluebenchmarks.com/fewclue.html

“面对产业AI化挑战,巨量模型在多任务泛化及小样本学习上突出能力,以及其探索深度学习的极限和实现通用智能的可能性,浪潮前瞻性的做出了开发巨量模型的重要决策"。刘军告诉AI科技评论。

同时他强调,浪潮源1.0大模型只是一个开始,未来源1.0将面向学术研究单位和产业实践,户进行开源、开放、共享,降低巨量模型研究和应用的门槛,推进AI产业化和产业AI化的进步。

2 2457亿 是如何炼成的?

大模型需要“大数据+大算力+强算法”三驾马车并驾齐驱,而对于大部分企业和机构来说,其中任意一项的研发投入都是沉重的负担,尤其是算力成本。

1750亿参数的GPT-3单次训练需要 355 张 GPU,花费大约 2000万美元。所以在炼大模型浪潮中,我们只看到了全球顶级的科技企业和科研机构的身影,而浪潮本潮也在其中。

浪潮 源1.0 在算力、算法和数据三个方面都做到了超大规模和巨量化。

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

首先是数据,浪潮创建了 5000GB 大规模的中文数据集,将近5年互联网上的内容浓缩成了2000亿词。

2000亿词是什么概念?假如人一个月能读十本书,一年读一百本书,读 50 年,一生也就读 5000 本数,一本书假如 20 万字,加起来也就 10 亿字。也就是说,人类穷极一生也读不完2000亿词。

在大数据时代,比数据量更珍贵的数据质量。作为AI的底层燃料,模型对数据集质量提出了更高的要求。为此浪潮创新中文数据集生成方法,研制高质量文本分类模型,收集并清洗互联网数据过程中,有效过滤了垃圾文本,最终生成5000GB数据集可以说具备了够大、够真实、够丰富的特点。

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

在算法层面,源1.0大模型使用了4095PD(PetaFlop/s-day)的计算量,获得高达2457亿的参数量,相对于GPT-3消耗3640PD计算量得到1750亿参数,计算效率大幅提升;在算力层面,源1.0通过算法与算力协同优化,使模型更利于GPU性能发挥,极大的提升了计算效率,实现业界第一训练性能的同时实现业界领先的精度。

谈起浪潮很多人还是停留在初级的印象,这是一家老牌硬件厂商,每年服务器市场占有率在全球范围内高居榜首。殊不知浪潮也一直活跃在AI前沿方向,自2018年成立浪潮人工智能研究院以来,其异构加速计算、深度学习框架、AI算法等领域已经战绩颇丰。

浪潮先后推出了深度学习并行计算框架Caffe-MPI、TensorFlow-Opt、全球首个FPGA高效AI计算开源框架TF2等;此外,在全球顶级的AI赛事上已累计获得56个MLPerf全球AI基准测试冠军。有了这些深厚的AI功底,浪潮在四个月内推出全球最大巨量模型也就不难理解了.

对于源1.0,业内专业人士评价称,其在巨量数据、超大规模分布式训练的扩展性、计算效率、巨量模型算法及精度提升等等难题上都有所创新和提升。

3 源1.0 更“博学”了吗?

显然,是的。图灵测试一直被认为是人工智能学术界的”北极星“,也是检验机器是否具有人类智能的唯一标准。以GPT-3为代表的巨量模型出现后,机器开始在多项任务中逼近图灵测试,但直到源1.0之前,没有任何大模型突破30%的关卡。

在“源1.0”的图灵测试中,将模型生成的对话、小说续写、新闻、诗歌、对联与由人类创作的同类作品进行混合并由人群进行分辨,测试结果表明,人群能够准确分辨人与“源1.0”作品差别的成功率已低于50%。

巨量模型时代,浪潮不做旁观者:2457亿参数,打造全球最大中文预训练模型

上图中受访者的平均误判率为50.84%,在新闻生成领域误高达57.88%。

而抛开冰冷的数据,源1.0的写诗赋词、续写故事的能力确实让人赞叹!

输入开头:烈日下,他所追踪的那五个人,已经越来越近了。

续写:俄顷,但见八九个小人影,来得十分快捷。

南瑞麟一怔,道: “怎么又来了这么多人? ”

他暗中心惊,凝目望去,发现前头那一人,自是笑面禅师,后面那数人则是黄少棠,千年白鹤,无影刀薛瑜,濮阳无华,白发红颜驼背姥姥及小叫化程青阳等人。

他看出神偷押着的那人,正是杀死海螺岛主陶环的矮老头。

南瑞麟缓缓站起,低声问一羚天魔叟道:

“ 你说的令主是谁?正在追赶笑面和尚他们的。 ”

钱三迅速地向着前头那人手一指道:

“就是他。”

那追踪的人,矮小清澈面目,可见看出已在五十开外,这时他正追着大笑面轮师身后五丈处,登峰愈迅疾。

笑面禅师到得峰腰,四顾了一眼,见无碍眼的樵夫牧童,才放步始行下降,独目之中射出凌凌震人心魄的奇光。

右侧是源1.0续写的对联,让多少人类都难以望其项背。

五湖四海皆春色,三江八荒任我游;

春来人入画,夜半月当灯;

和风吹绿柳,细雨润青禾;

三江顾客盈门至,四季财源滚滚来。

4 巨量模型的潜力

炼大模型热潮的兴起,离不开谷歌微软、OpenAI、智源研究院等全球顶级科技企业和研发机构的追逐和热捧,在它们看来,巨量模型代表了实现通用人工智能最具潜力的路径,也代表了当前传统产业实现智能化转型的新机遇。

而这次,浪潮重磅发布中文单体大模型源1.0,通过图灵测试和小样本学习能力再次印证了业界对超大模型潜力的普遍期望,前者为模型推理走向认知智能提供了可能性,后者降低了不同场景的适配难度,提升了模型的泛化能力。

当然,大模型最终能否走向通用人工只能仍是一个未知数。近日,李飞飞与100多位学者联名发表一份 200 多页的研究报告《On the Opportunities and Risk of Foundation Models》,深度综述了当前大规模预训练模型面临的机遇与挑战。

在文章中,他们将大模型统一命名为“基础模型”,肯定了其对智能体基本认知能力的推动作用,同时也指出大模型呈现出「涌现」与「同质化」的特性。所谓「涌现」代表一个系统的行为是隐性推动的,而不是显式构建的;「同质化」是指基础模型的能力是智能的中心与核心,大模型的任何一点改进会迅速覆盖整个社区,但其缺陷也会被所有下游模型所继承。

巨量模型的研发还远没有成熟,相信未来这股"浪潮"还会越来越汹涌。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值