点击蓝字
关注我们
AI TIME欢迎每一位AI爱好者的加入!
虽然深度神经网络已经在各种计算机视觉任务中取得了成功,但其易受到纹理风格转变和小的扰动的影响,而人类对这些扰动是稳健的。在《Robust and Generalizable Visual Representation Learning via Random Convolutions》这篇论文中,作者使用随机卷积进行数据增强,极大的改善了神经网络的鲁棒性。随机卷积是近似地保留图像中的形状,并可能扭曲局部纹理。直观地说,随机卷积会创造出无限多的具有类似全局形状但随机局部纹理不同的新域。
因此,作者探索使用多尺度随机卷积的输出作为新的图像,或者将其与原始图像线性混合进行训练。当使用论文中提出的方法训练的网络应用于未见过的领域时,该方法一直在提高领域泛化基准的性能,并且可以扩展到ImageNet。特别是在泛化到PACS中的素描领域和ImageNet-Sketch这一具有挑战性的情况下,作者所提方法以很大的优势胜过了最先进的方法。更有趣的是,该方法可以通过提供一个更稳健的预训练的视觉表征使下游任务受益。
本期AI TIME PhD直播间,我们有幸邀请到了本文的作者徐震林博士为大家分享这项研究工作!
嘉宾介绍
徐震林:
UNC Chapel Hill 计算机系博士生,研究兴趣为 data efficiency, robustness and generalization in visual representation learning。
个人主页:
https://wildphoton.github.io/
背 景</