量子计算 pdf_7 Papers | 谷歌量子霸权论文;13项NLP任务夺冠的小模型ALBERT

谷歌发布的量子计算论文展示了量子处理器的优越性,同时提出ALBERT模型,参数量少但性能超越XLNet。此外,还包括深度学习在符号数学和机器学习可解释性方面的进展。
摘要由CSDN通过智能技术生成

机器之心整理

参与:一鸣、杜伟

本周重要论文很多,特别是谷歌的研究非常耀眼,有量子霸权论文和参数小 BERT 很多但性能超 XLNe 的模型 ALBERTt。此外还有北大等的论文。

目录:

  1. Gate Decorator: Global Filter Pruning Method for Accelerating Deep Convolutional Neural Networks

  2. InterpretML: A Unified Framework for Machine Learning Interpretability

  3. ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS

  4. Language Models as Knowledge Bases?

  5. Deep Learning For Symbolic Mathematics

  6. Quantum Supremacy Using a Programmable Superconducting Processor

  7. Do Massively Pretrained Language Models Make Better Storytellers?

论文 1:Gate Decorator: Global Filter Pruning Method for Accelerating Deep Convolutional Neural Networks

  • 作者:Zhonghui You、Kun Yan、Jinmian Ye、Meng Ma、Ping Wang

  • 论文链接:https://arxiv.org/abs/1909.08174

摘要:对滤波器进行剪枝是一种最为有效的、用于加速和压缩卷积神经网络的方法。在这篇论文中,来自北大的研究者提出了一种全局滤波器剪枝的算法,名为「门装饰器(gate decorator)」。这一算法可以通过将输出和通道方向的尺度因子(门)相乘,进而改变标准的 CNN 模块。当这种尺度因子被设 0 的时候,就如同移除了对应的滤波器。研究人员使用了泰勒展开,用于估计因设定了尺度因子为 0 时对损失函数造成的影响,并用这种估计值来给全局滤波器的重要性进行打分排序。接着,研究者移除哪些不重要的滤波器。在剪枝后,研究人员将所有的尺度因子合并到原始的模块中,因此不需要引入特别的运算或架构。此外,为了提升剪枝的准

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值