MESON: A MEsoScOpic Neural Model for Visual Cognition Learning-一个视觉认知学习的介观神经模型
创新:将一种新的网络模型--介观神经模型,用在视觉认识上。
贡献:
- 解决分类聚类问题。
- 提出了视觉认知学习的介子模型。解决了连续场引起的计算问题(感觉并未解决),并通过两层结构之间的连接实现了模式存储。
- 应用视觉认知学习的介子模型设计了监督学习和无监督学习的新方法。
- 介子模型具有模块化和灵活性。具有构建深度结构的潜力,并便于嵌入注意、情感等其他功能模块(文中未证明)。
缺点:模型只能应用于一些关键的、基本的过程,在简单条件下解释某些认知现象的方法。
mesoscopic 介观:介于宏观与微观之间的一种体系。生物中的细胞大小。
MESON模型:
每个白色的球表示一个PUs,红色和粉红色的球被激活,可用于记忆。PUs(proto-unit),表示大脑皮层里面的里面的神经元,激活之后可以用于储存。
- 初级PU,是为特征表示而设计的。称之为原始知觉场,每一个初级PU根据其选择性对应于一种特定的外部刺激。
- 高级PU,为模式存储。
试验中,用于分类的人工数据集
实验过程
黄色层表示是初级PU,蓝色层是高级PU。
简单起见,只关注黑色背景下孤立光点的视觉分类,这些光点具有相同的形状、颜色和亮度。前两幅图是训练步骤,
实验
比较对象:K-NN (k = 1),、BP neural networks 、SVM
数据集:
- UCI Datasets
- ORL Datasets:人脸图像数据集ORL是一个真实的数据集,它包含400张不同光照条件下的图片,这些图片属于40个类。
Data-free Knowledge Distillation for Object Detection -目标检测的无数据知识蒸馏
为解决目标检测的增量学习问题,提出无数据知识蒸馏模块,它基于DeepInversion(深度反演法)
创新点:
1、提出一种用于目标检测的深度反演算法
2、不访问数据集的情况下,将知识从现成的预先训练过的目标检测器转移到学生网络
模型:
由DIODE生成的合成图像在无数据知识蒸馏(KD)的背景下进行目标检测。为此,我们考虑一个预先训练的教师模型Φ,并将其信息提取到学生检测器Φstu。
BN(Batch Normalization)层:accelerating Deep Network training by reducing internal covariate shift,BN层最重要的作用是让加速网络的收敛速度。
DeepInversion:一种从图像分布中合成图像的新方法,用于训练深度神经网络。我们将一个训练好的网络(老师)"invert "为 从随机噪声开始合成class-conditional 输入图像,而不使用任何额外的训练数据集。在保持教师模型固定的情况下,我们的方法在优化输入的同时,利用老师的batch normalization层中存储的信息对中间特征图的分布进行调整。
box sampler 为每个image 生成一个object 。为了增加object density,提出了两种技术:
- 平铺策略:将多个onelabel生成的图像网格化,以创建多对象图像。
- 假阳性预测采样:
YFP抽样需要更多的资源,因此当计算有限时,平铺可能是首选
无数据蒸馏 Data-Free Distillation
- 克服由于隐私、合法性、安全性和机密性担忧而导致的数据不可用问题
- 无训练数据,这些数据由教师网络(如GAN)生成
实验
使用Yolo-V3一级目标检测网络作为我们实验中的师生网络,两个网络具有相同的结构,因为我们的目标是从预先训练的模型中提取知识,而不是网络压缩。教师在MS-COCO数据集上进行预先训练。
在MS-COCO上预先训练的Yolo-V3 detector上的DIODE生成的图像。
经过MS-COCO 2017预训练的SSD300 dector上的DIODE 生成的图像(颜色分布更好,但物体边界更差)
通过DIODE,我们现在能够非常有效地生成大量的合成图像:我们重复这个过程,通过DIODE生成2500批图像,每批图像从不同的随机种子和目标集采样,批大小48,分辨率416×416,共120k图像。同时,我们还使用YFP抽样生成该数据集的一个版本。使用这些新的合成图像进行无数据的知识提取。