1 - AlexNet 和 VGG-Net
CVPR 2015 基本是 “the year of deep learning”,有大概70%的文章是关于deep learning的。大会请来了2位 keynote speakers: 计算机学家 Yann LuCun (NYU, Facebook) 和 心理学家、神经学家 Jack Gallan (Berkeley)。 Yann是公认的 Convolutional Neural Network (CNN) 之父,而Jack是为数不多的神经学领域看好deep learning的科学家,他用实验显示了ConvNets不同层和 visual cortex (视觉皮层) 不同层 它们之间的相关性。显然,deep learning在工程和科学领域都引起了不小的轰动,不过既然CVPR是一个工程领域会议,我们就先聊聊deep learning在工程领域过去2年的进展。
AlexNet和VGG-Net也成为约定俗成的术语
在过去的十年里,SVM,SIFT,HOG 已成为计算机视觉学者人人皆知的名词,每个计算机视觉学者直接把它们当作专有名词写进文章,而不需要加以解释,甚至到后来也不用注明出处。今年的 CVPR, 由于过去2年 deep learning 在 computer vision 的很多问题上取得了state-of-the-art 的结果,使得这2种 deep architectures: AlexNet & VGG-Net, 成为一个约定俗成的专有名词,大家开始在文中广泛的使用它们,就如大家以前广泛使用 HOG,SVM一样。
在过去的十年里,SVM,SIFT,HOG 已成为计算机视觉学者人人皆知的名词,每个计算机视觉学者直接把它们当作专有名词写进文章,而不需要加以解释,甚至到后来也不用注明出处。今年的 CVPR, 由于过去2年 deep learning 在 computer vision 的很多问题上取得了state-of-the-art 的结果,使得这2种 deep architectures: AlexNet & VGG-Net, 成为一个约定俗成的专有名词,大家开始在文中广泛的使用它们,就如大家以前广泛使用 HOG,SVM一样。