《预训练周刊》第52期:屏蔽视觉预训练、目标导向对话

No.52

智源社区

预训练组

356419471b36d7dfa49e357c3b56e7f5.png

研究

观点

资源

活动

周刊订阅

告诉大家一个好消息,《预训练周刊》已经开启“订阅功能”,以后我们会向您自动推送最新版的《预训练周刊》。订阅方法:

方式1:扫描下面二维码,进入《预训练周刊》主页,选择“关注TA”。

2c5995021e68eb1475842090c76e440e.png

方式2:点击本文下方的“阅读原文”,进入《预训练周刊》Hub社区版,根据内附的详细订阅步骤,完成订阅。

1a31bd64ff79acd38b7902493c915ef3.jpeg

01a6e3e69ea60289651f4de6ccf8a269.jpeg

e2ee0e52e4efb1c038cc57e60bde05f4.jpeg

1a1c1b2056edae9c50e70f0a6d37b0d9.jpeg

03162c3653bd69c175e6bcd7992cd1d2.jpeg

关于周刊

本期周刊,我们选择了7篇预训练相关的论文,涉及视频预训练、视频预测、目标对话、蛋白序列嵌入、分子几何、蛋白序列预测和蛋白模型的探索。此外,在研究动态方面,我们选择了2篇预训练资讯,将介绍低资源微调和文本理解方面的一些最新内容。

周刊采用社区协作的模式产生,欢迎感兴趣的朋友们参与我们的工作,一起来推动预训练学习社群的分享、学习和交流活动。可以扫描文末的二维码加入预训练群。

(本期贡献者:申德周 翟珂 吴新刚)

2ee14d9b7cb268362cbc23f6b34e277f.jpeg

89cfcd26ed89912a5dccaa1d30d8d390.jpeg

2ffdb03d2fcc185f05c88de7f50884ec.jpeg

6ed3d28259b788ace7ed518719230bb8.jpeg

7926715745c20cf5c3b761f9b2dd29ad.jpeg

论文推荐

标题:OpenAI|Video PreTraining (VPT): Learning to Act by Watching Unlabeled Online Videos(视频预训练 (VPT):基于观看未标记的在线视频的行动学习)了解详情

作者:Bowen Baker, Ilge Akkaya, Peter Zhokhov, Jeff Clune等

简介:本文介绍了一种基于视频数据的无监督顺序决策学习。对嘈杂的互联网规模数据集进行预训练,已作为一种技术被大量研究,用于训练具有广泛、通用文本、图像和其他功能的模型范式。然而,对于许多顺序决策领域,如机器人技术,视频游戏和计算机使用,公开数据不包含需要以相同的方式训练的行为先验标签。作者使用互联网规模通过半监督对顺序决策域进行预训练范式模仿学习,其中智能体通过观看在线未标记视频来学习动作。具体来说,作者展示了使用少量标记数据,训练一个足够精确的逆动力学模型,可以标记大量未标记的在线资源数据,然后从中训练一般行为先验。尽管使用本机人机界面,作者证明了这种行为先验具有非平凡的零样本能力,并且可以微调,而模仿学习、强化学习和探索任务无法通过强化学习从头开始学到。对于许多任务,作者的模型表现出人类水平的性能,作者是第一个报告可以制作钻石工具的计算机智能体,熟练的人类需要 20 分钟以上的游戏来完成。

论文下载:https://arxiv.org/pdf/2206.11795v1.pdf

标题:斯坦福、Salesforce|MaskViT: Masked Visual Pre-Training for Video Prediction(MaskViT:屏蔽视觉预训练用于视频预测)了解详情

作者:Agrim Gupta, Stephen Tian, Li Fei-Fei等

简介:本文介绍了一种视频预训练方法。以过去为条件预测未来视觉观察的能力观察和运动命令,可以使具体智能体计划解决方案复杂环境中的各种任务。这项工作表明,作者可以通过掩蔽视觉对转换器进行预训练来创建良好的视频预测模型。作者的方法名为 MaskViT,它基于两个简单的设计决策。首先,为了记忆和训练效率,作者使用两种类型的窗口注意力:空间和时空。其次,在训练期间,作者屏蔽了可变百分比的标记,而不是固定的屏蔽率。对于推理,MaskViT生成所有符号都通过迭代细化,作者逐渐减少掩蔽遵循掩码调度函数的比率。在作者展示的几个数据集上MaskViT 在视频预测方面优于先前的工作,参数高效,并且可以生成高分辨率视频(256×256)。此外,作者证明由于使用MaskViT在真实机器人上进行规划的迭代解码,推理加速(高达 512 倍)。作者的工作表明,作者可以通过通用屏蔽视觉模型和少量领域知识赋予智能体强大的预测能力。

论文下载:https://arxiv.org/pdf/2206.11894v1.pdf

标题:微软、哥伦比亚大学|GODEL: Large-Scale Pre-Training for Goal-Directed Dialog(GODEL:目标导向对话的大规模预训练)了解详情

作者:Baolin Peng, Michel Galley, Pengcheng He,  Jianfeng Gao等

简介:本文介绍一个用于对话的大型预训练语言模型。相比之下使用较早的模型,例如DialoGPT,GODEL利用接地的新阶段预训练旨在更好地支持 GODEL 适应广泛的下游需要外部信息的对话任务到当前对话(例如,数据库或文件)以产生良好的反应。针对一系列基准的实验包括面向任务的对话、对话式 QA 和扎根的开放域对话表明 GODEL 优于最先进的技术在小样本微调设置中预训练的对话模型,在人和自动评估。作者的一个新特点评价方法是引入评估有用性的效用概念响应(外部评估)另外他们的交际特征(内在评估)。作者证明了外部评估提供改进的注释者间协议和与自动化指标的相关性。

代码下载:https://github.com/Microsoft/GODEL

论文下载:https://arxiv.org/pdf/2206.11309v1.pdf

标题:谷歌 | Deep embedding and alignment of protein sequences(蛋白序列的深度嵌入和比对)了解详情

作者:Olivier Teboul, Jean-Philippe Vert等

简介:本文介绍了预训练在序列比对上的应用。蛋白质序列比对是大多数研究蛋白质结构和功能的生物信息学方法的一个关键组成部分。本文利用深度学习在语言建模和可微分方面的最新进展,提出了DEDAL,一个用于比对蛋白质序列并检测同源物的灵活的模型。DEDAL通过在具有已知比对的序列对和一大组原始蛋白质序列中预训练,通过Smith-Waterman算法的连续可微变体和特定的对齐损失函数进行端到端梯度优化。本文认为,一个通用的蛋白预训练语言模型往往是不够的,至少应该进行微调,以达到对齐任务的最佳性能。本文表明DEDAL比现有方法在远程同源物上的比对正确率提高了2-3倍,并能更好地将远程同源物与进化上不相关的序列区分开来,为改善结构和功能基因组学中许多依赖序列比对的下游任务提供了方案。

论文下载:https://doi.org/10.1101/2021.11.15.468653

标题:Mila、渥太华大学 | Molecular Geometry Pretraining with SE(3)-Invariant Denoising Distance Matching(用SE(3)不变去噪距离匹配进行分子几何预训练)了解详情

作者:Shengchao Liu, Hongyu Guo, Jian Tang

简介:本文介绍了分子三维预训练。由于标记的分子数量有限,预训练分子表征在药物和材料发现的各种应用中至关重要,但现有的工作大多集中在二维分子图的预训练上。然而,对三维几何结构进行预训练的能力却没有得到很好的探索,这是因为很难找到一个足够有效地从几何结构中提取基本特征的自监督预训练任务。在三维分子动态性质的激励下,分子在三维欧几里得空间的连续运动形成了一个平滑的势能表面,本文于是提出了一个三维坐标去噪预训练框架来模拟这样一个能量景观。利用SE(3)不变分数匹配方法,本文提出SE(3)-DDM,其中坐标去噪任务被有效地归结为分子中成对原子距离的去噪。综合实验证实了本文提出的方法的有效性和稳健性。

论文下载:https://arxiv.org/pdf/2206.13602v1.pdf

标题:阿卜杜拉国王大学、中科院 | Predicting the antigenic evolution of SARS-COV-2 with deep learning(用深度学习预测SARS-COV-2的抗原进化)了解详情

作者:Wenkai Han、Xin Gao等

简介:本文介绍了多模态预训练在SARS-COV-2抗原进化的研究。本文旨在解决在实验检测能力缺乏的限制下,探索巨大蛋白潜在序列空间,发现潜在具有高抗原进化潜力的组合突变的问题 。作者提出了MLAEP,它结合了预训练模型、序列结构信息、多任务学习和遗传算法来模拟病毒的适应度景观,并通过虚拟定向进化预测整个RBD区域的具有高抗原进化潜力的组合突变。为了证明模型的有效性,作者使用了假病毒中和试验数据集验证了模型预测逃逸潜力方面的性能。另外,使用遗传算法生成的具有免疫逃逸潜力的生成RBD突变序列与免疫力低下的COVID-19患者体内发现毒株以及新出现的突变体有类似的突变,且生成序列的对接实验显示,生成序列具有与Omicron相当甚至更好的免疫逃逸潜力,可能成为未来的高风险突变体。

论文下载:https://doi.org/10.1101/2022.06.23.497375

标题:Salesforce、约翰霍普金斯、哥大 | ProGen2: Exploring the Boundaries of Protein Language Models(ProGen2: 探索蛋白语言模型的边界)了解详情

作者:Erik Nijkamp, Jeffrey Ruffolo, Eli N. Weinstein, Nikhil Naik, Ali Madani

简介:本文介绍了超大规模蛋白预训练。近年来,在蛋白质序列上预训练的基于注意力的模型在蛋白质设计相关的分类和生成任务上表现出了惊人的成功。然而,研究者们对非常大规模的模型和数据如何在有效的蛋白质模型开发中发挥作用缺乏足够的了解。本文介绍了一套蛋白质语言模型,命名为ProGen2,该模型被扩展到64亿个参数,并在不同的序列数据集上进行训练,这些数据集来自基因组、元基因组和免疫组库数据库的10多亿种蛋白质。ProGen2模型在捕捉序列进化信息的分布、生成新序列和预测蛋白质的适应度方面显示出最先进的性能,而不需要额外的微调。本文的结果表明,随着模型规模和蛋白质序列数量继续变得越来越大,需要越来越重视蛋白质序列模型的数据分布。

论文下载:https://arxiv.org/pdf/2206.13517.pdf

67c0816486c389ebba384d49a3e3be2c.jpeg

881535cc119cc4705192218b1251caee.jpeg

df3bc868d54884084f1982fdfc493123.jpeg

f9b5c933adf1e9130dca02227375d82f.jpeg

d81f5118e39ad0f3a4e765d772b80a38.jpeg

研究动态

标题:MIT|On-Device Training Under 256KB Memory(256KB 内存下的设备上训练)了解详情

作者:Ji Lin, Ligeng Zhu,  Song Han等

简介:通过微调预训练模型,设备上训练使模型能够适应从传感器收集的数据。对于内存资源很少的物联网设备来说,训练内存消耗是令人望而却步的。作者提出了一种算法-系统协同设计框架,只需 256KB 的内存就可以进行设备端训练。设备上的培训面临两个独特的挑战:(1) 神经网络的量化图由于比特精度混合和缺乏归一化而难以优化;(2)有限的硬件资源(内存和计算)不允许完全反向计算。为了应对优化困难,作者提出量化感知扩展来校准梯度尺度和稳定量化训练。为了减少内存占用,作者建议稀疏更新跳过不太重要的梯度计算层和子张量。算法创新由轻量级实现训练系统,修剪后向计算图形以支持稀疏更新并将运行时自动微分卸载到编译时间。作者的框架是第一个实用的设备传输解决方案,在微型物联网设备上学习视觉识别,使用不到现有框架内存的1/100。作者的研究使物联网设备不仅能够执行推理,而且还不断适应新数据,以进行设备上的终身学习。

论文下载:https://arxiv.org/pdf/2206.15472v1.pdf

标题:有监督预训练!文本生成又一探索!了解详情

简介:本文收集了7种代表性生成任务的45个有标签数据集,共计3200千万条样本(23GB),来作为预训练语料。第一阶段,使用这些语料训练一个标准的Transformer,即MVP;第二阶段,冻结住MVP,利用每个任务的数据训练任务特定的连续型提示(即7组提示)。随后,为了测试模型的有效性,本文在这7个任务的常见数据集上进行了测试。相较于无监督预训练的BART,有监督预训练的MVP有明显提示。在没有使用任务技巧的情况下,我们的通用模型在15个数据集上有10个取得了SOTA效果。本文还在生成基准GEM上进行了测试,效果全面优于ExT5。最后,为了测试模型的通用性,本文还在预训练阶段未知的生成任务和自然语言理解基准GLUE上进行了测试,在未知生成任务取得了SOTA效果,在GLUE上也优于基线BART。

a986d429e75d8c7d688c795e95ab7162.jpeg

如果你正在从事或关注预训练学习研究、实现与应用,欢迎加入“智源社区-预训练-交流群”。在这里,你可以:

  • 学习前沿知识、求解疑难困惑

  • 分享经验心得、展示风貌才华

  • 参与专属活动、结识研究伙伴

请扫描下方二维码加入预训练群(备注:“姓名+单位+预训练”才会验证进群哦)

94d96a31bef2e02ac1e37e030da03e1e.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值