人工智能迈向“炼大模型”阶段 知识表示和学习机理进一步创新突破

  8 月,中国研究人员使用 Alpha Fold2 绘制近 200 种与 DNA 结合的蛋白质结构图11 月,德国和美国的研究人员利 Alpha Fold2 和冷冻电镜绘制了核孔复合物的结构图12 月 22 日,深势科技推出了蛋白结构测工具 Uni-Fold在国内首次复现谷歌 Alphafold2 规模训练并开源训练推理代码。
  AI 技术 2021 年发展总结与展望
  人工智能迈向“炼大模型”阶段
  今年是超大规模预训练模型的爆发之年。
  去年GPT-3 横空出世,这个具有 1750 亿参数规模的预训练型所表现出来的零样本与小样本学习能力刷新了人们的认知也引爆了 2021 年 AI 大模型研究的热潮。
  谷歌、微软、英伟达智源人工智能研究院、阿里、百度浪潮等国内外科技巨头和机构纷纷展开大模型研究和探索。
  超大规模预训练模型的“军备竞赛”
  2021 年 1 月Google 推出的 Switch Transformer 模型以高 1.6 万亿的参数量打破了 GPT-3 作为最大 AI 模型的统治地位成为史上首个万亿级语言模型。
  国内研究机构也不甘示弱今年 6 月,北京智源人工智能研究院发布超大规模智能模型“悟道 2.0”,达到 1.75 万亿参数超过 Switch Transformer 成为全球最大的预训练模型。
  值得一提的是今年国产化大模型研发工作进展飞速华为、浪潮、阿里、百度等都发布了自研的大模型。
  浪潮人工智能研究院首席研究员吴韶华向 InfoQ 表示现在业界提高模型参数量有两种技术路线产生两种不同的模型结构一种是单体模型一种是混合模型。如浪潮的源大模型华为的盘古大模型、百度的文心大模型英伟达联合微软发布的自然语言生成模型 MT-NLG 等走的都是单体模型路线;而智源的悟道模型、阿里 M6 等走的是混合模型路线。
  预训练模型技术新进展
  OPPO 小布智能中心、 NLP 算法工程师曾冠荣认为,预训练模型在今年取得的重要技术进展有:
  知识表示和学习机理进一步创新突破
  随着对预训练模型的深入理解预训练模型的知识学习和表征的机理逐步明确,人们得以更加顺利地往模型里注入需要其学习的知识,在这些知识的加持下,对复杂任务的应对能力得到了大幅提升。
  对比学习、自监督和知识增强
  以对比学习为中心,多种增强方法为工具的方式能进一步提升预训练模型的语义理解和表征能力,增强方法的深入让模型自监督成为可能,让对比学习对样本,尤其是正样本的依赖降低,数据依赖的降低势必让模型对少样本甚至无样本任务的适应性提升,模型能更好地完成这类型的任务,这将让预训练模型落地的成本再降低一个层次。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值