深度网络图像大小不一致_今日 Paper | 医学图像中的深度学习;元强化学习;深度神经网络的无损压缩等...

为了帮助各位学术青年更好地学习前沿研究成果和技术,AI科技评论联合Paper 研习社(paper.yanxishe.com),重磅推出【今日 Paper】栏目, 每天都为你精选关于人工智能的前沿学术论文供你学习参考。以下是今日的精选内容——

目录

  • A Loss-Function for Causal Machine-Learnin

  • Meta Reinforcement Learning with Autonomous Inference of Subtask Dependencie

  • Wide Neural Networks with Bottlenecks are Deep Gaussian Processe

  • DAWSON: A Domain Adaptive Few Shot Generation Framewor

  • Multi-organ Segmentation over Partially Labeled Datasets with Multi-scale Feature Abstractio

  • Deep Learning in Medical Image Registration: A Revie

  • Fast and deep neuromorphic learning with time-to-first-spike codin

  • End-to-end Named Entity Recognition and Relation Extraction using Pre-trained Language Model

  • Localized Debiased Machine Learning: Efficient Estimation of Quantile Treatment Effects, Conditional Value at Risk, and Beyond

因果机器学习的损失函数

论文名称:A Loss-Function for Causal Machine-Learning

作者:Yang I-Sheng

发表时间:2020/1/2

论文链接:https://paper.yanxishe.com/review/8168

推荐理由:因果机器学习与预测治疗的净效果(真实提升)有关。给定治疗组和对照组的数据,它类似于标准的监督学习问题。不幸的是,由于数据中缺少逐点真实值,因此没有类似定义明确的损失函数。由于缺乏这种损失功能,现代机器学习的许多进步不能直接应用。

作者提出了一种在这种情况下定义损失函数的新颖方法,该方法等于标准回归问题中的均方误差(MSE)。该损失函数是普遍适用的,因此提供了一个通用标准来评估可预测真实升力的任何模型/策略的质量。我们证明,尽管定义新颖,但仍然可以直接对这种损失函数执行梯度下降以找到最佳拟合。这导致了一种新的方法来训练任何基于参数的模型(例如深度神经网络)来解决因果机器学习问题而无需通过元学习器策略。

b7c08dce9a40508a5488674ff731d7b4.png 554f52477f80444ecfe64f979188d0bf.png

具有子任务依赖项的自主推断的元强化学习

论文名称:Meta Reinforcement Learning with Autonomous Inference of Subtask Dependencies

作者:Sohn Sungryull /Woo Hyunjae /Choi Jongwook /Lee Honglak

发表时间:2020/1/1

论文链接:https://paper.yanxishe.com/review/8167

推荐理由:作者提出并解决了一个新颖的快照式RL问题,其中任务以子任务图为特征,该子任务图描述了代理未知的一组子任务及其相关性。代理需要在适应阶段的几个情节中快速适应任务,以使测试阶段的收益最大化。作者没有直接学习元策略,而是开发了带有子任务图推理(MSGI)的元学习器,它通过与环境交互来推断任务的潜在参数,并在给定潜在参数的情况下最大化回报。

为了促进学习,作者采用了固有的奖励方式,该奖励方式受到鼓励有效探索的上限置信度(UCB)的启发。作者在两个网格世界域和StarCraft II环境上的实验结果表明,与现有的元RL和分层RL方法相比,该方法能够准确地推断潜在任务参数,并且能够更有效地进行自适应。

9ed3da0e9494b9f1f28b72b1e23b2275.png e1848d85b8489391560a3e1b5bbedea6.png 2131c7f2447fd6dcd946a7cc73ece166.png

具有瓶颈的宽泛神经网络是高斯过程

论文名称:Wide Neural Networks with Bottlenecks are Deep Gaussian Processes

作者:Agrawal Devanshu /Papamarkou Theodore /Hinkle Jacob

发表时间:2020/1/3

论文链接:

https://paper.yanxishe .com/review/8169

推荐理由:最近,在神经网络的“宽限度”方面有很多工作,其中贝叶斯神经网络(BNN)被证明会收敛到高斯过程(GP),因为所有隐藏层都被发送到无限宽。但是,这些结果不适用于要求一个或多个隐藏层保持狭窄的体系结构。

在本文中,作者考虑了BNN的宽限制,其中一些隐藏层(称为“瓶颈”)以有限的宽度保持。结果是GP的组合,作者称之为“瓶颈神经网络高斯过程”(瓶颈NNGP)。尽管直观,但证明的精妙之处在于表明,网络组成的广泛限制实际上就是限制性GP的组成。作者还从理论上分析了单瓶颈NNGP,发现该瓶颈在多输出网络的输出之间引起依赖性,该输出在无限的瓶颈后深度持续存在,并防止网络的内核在无限的瓶颈后失去鉴别力,深度。

80a2eff8691936b6c8ded38baa26d6e1.png 7b50b23aa9779b925931b56503ab0cfc.png 5fd981a094afde4a34fa33f723f349f5.png

DAWSON:域自适应少量镜头生成框架

论文名称:DAWSON: A Domain Adaptive Few Shot Generation Framework

作者:Liang Weixin /Liu Zixuan /Liu Can

发表时间:2020/1/2

论文链接:

https://paper.yanxishe .com/review/8 170

推荐理由:从头开始为新域训练生成对抗网络(GAN)需要大量的训练数据和几天的训练时间。为此,作者提出了DAWSON,这是一种基于元学习的GAN领域自适应FewShot生成框架。应用元学习GAN的主要挑战是,由于GAN的无可能性性质,通过在开发集上对其进行评估来获得生成器的梯度。

为了解决这一挑战,作者提出了另一种GAN训练程序,该程序自然地将GAN的两步训练程序与元学习算法的两步训练程序结合在一起。DAWSON是一个即插即用框架,它支持广泛的元学习算法系列以及具有架构变量的各种GAN。在DAWSON的基础上,作者还提出了MUSIC MATINEE,这是第一个少拍音乐生成模型。

作者的实验表明,MUSIC MATINEE可以仅使用目标域中的数十首歌曲就快速适应新域。其表明,DAWSON可以通过MNIST数据集中的四个样本来学习生成新的数字。作者在PyTorch和Tensorflow中发布了DAWSON的源代码实现,生成了两种流派的音乐样本和闪电视频。

acb42cb72a60b996901c2b0b9f78f588.png b1397031531d9433f739fa30dc1a1651.png 4230746ad7c7f77b09545b8ca77fa889.png

具有多尺度特征抽象的部分标记数据集的多器官分割

论文名称:Multi-organ Segmentation over Partially Labeled Datasets with Multi-scale Feature Abstraction

作者:Fang Xi /Yan Pingkun

发表时间:2020/1/1

论文链接:

https://paper.yanxishe .com/review/8 171

推荐理由:本文提出了一种统一的训练策略,该策略使新型多尺度深层神经网络能够在多个部分标记的数据集上进行训练,以进行多器官分割。多尺度上下文信息对于像素级标签预测即图像分割有效。但是,这些重要信息仅被现有方法部分利用。

在本文中,作者提出了一种用于多尺度特征抽象的新网络体系结构,该体系结构将金字塔特征分析集成到了图像分割模型中。为了弥合直接合并不同尺度特征引起的语义鸿沟,提出了一种相等的卷积深度机制。此外,作者建立了深层的监督机制,以细化不同规模的产出。为了充分利用不同比例的细分功能,作者设计了一个自适应加权层,以自动方式融合输出。所有这些特征一起集成到金字塔输入金字塔输出网络中,以进行有效的特征提取。最后但并非最不重要的一点是,为了减轻在训练深度分割模型中对完全注释数据的饥饿感,提出了一种统一的训练策略,以在多个部分标记的数据集上训练一个分割模型,以进行具有新颖目标自适应损失的多器官分割。作者的方法在包括BTCV,LiTS,KiTS和Spleen在内的四个可公开获得的数据集上进行了评估,其中取得了非常可观的性能。这项工作的源代码在下方URL上公开共享,以供其他人轻松地复制工作并使用引入的机制构建自己的模型。

23c11d521a5d629d444f75739985a36a.png f9b71996888ae62d2223b3d2029dc950.png 6d00115e58099be8320d6c9da0dead8c.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值