简单计算机面试题库及答案_题库 | 计算机视觉常见面试题型介绍及解答 第 6 期...

- 计算机视觉 - 有哪些提高卷积神经网络运算效率的方法?1、设计新的卷积神经网络训练策略目前卷积神经网络的训练是利用 BP 算法以整体监督方式进行学习的,通过采用某种方式的预训练(监督式或无监督式),可以为卷积神经网络提供一个较好的初始值,从而大大提高其整体上使用 BP 算法进行训练的收敛速度。2、使用 GPU 加速卷积运算过程基于 GPU 运算,通过撰写高效 C++ 代码实现卷积操作,可以将卷积操作速度提高 3~10 倍。3、使用并行计算提高网络训练和测试速度将一个大的卷积神经网络划分为几个小的子网络,再并行处理每个子网络中的运算过程,可以有效改善整个大网络的运算过程。4、采用分布式计算提高网络训练和测试速度该加速方式使用成千上万个运算节点,每个运算节点值完成整个网络计算中的很小一部分计算,通过调度节点为每个运算节点分配相应的计算任务,每个运算节点分别完成各自的计算任务,所有计算节点的计算任务都完成之后,调度节点再将每个计算节点的计算结果汇总融合。采用该加速方式,速度提高非常明显,可以完成一些以前几乎不能完成的网络训练任务,但主要问题是相关程序编制较为复杂,需要额外消耗较多的计算资源。5、硬件化卷积神经网络卷积神经网络成功应用于越来越多的实际问题之中,卷积神经网络中的卷积层和下采样层如果能够被硬件化,将会再次提高卷积神经网络的运行效率。 Faster R-CNN 的思想Faster R-CNN 可以简单地看做 “区域生成网络 RPNs + Fast R-CNN” 的系统,用区域生成网络代替 FastR-CNN 中的 Selective Search 方法。Faster R-CNN 这篇论文着重解决了这个系统中的三个问题:1. 如何 设计区域生成网络;2. 如何 训练区域生成网络;3. 如何让区域生成网络和 Fast RCNN 网络 共享特征提取网络。在整个 Faster R-CNN 算法中,有三种尺度:1. 原图尺度:原始输入的大小。不受任何限制,不影响性能。2. 归一化尺度:输入特征提取网络的大小,在测试时设置,源码中 opts.test_scale=600。anchor 在这个尺度上设定。这个参数和 anchor 的相对大小决定了想要检测的目标范围。3. 网络输入尺度:输入特征检测网络的大小,在训练时设置,源码中为 224*224。 R-CNN、Fast R-CNN、Faster R-CNN 三者比较
使用方法缺点改进
R-CNN(Region-based ConvolutionalNeural Networks)1、SS 提取 RP;2、CNN 提取特征;3、SVM 分类;4、BB 盒回归。1、 训练步骤繁琐(微调网络 + 训练 SVM + 训练 bbox);2、 训练、测试均速度慢 ;3、 训练占空间1、 从 DPM HSC 的 34.3% 直接提升到了 66%(mAP);2、 引入 RP+CNN
Fast R-CNN(Fast Region-based ConvolutionalNeural Networks)1、SS 提取 RP;2、CNN 提取特征;3、softmax 分类;4、多任务损失函数边框回归。1、 依旧用 SS 提取 RP (耗时 2-3s,特征提取耗时 0.32s);2、 无法满足实时应用,没有真正实现端到端训练测试;3、 利用了 GPU,但是区域建议方法是在 CPU 上实现的。1、 由 66.9% 提升到 70%;2、 每张图像耗时约为 3s。
Faster R-CNN(Fast Region-based ConvolutionalNeural Networks)1、RPN 提取 RP;2、CNN 提取特征;3、softmax 分类;4、多任务损失函数边框回归。1、 还是无法达到实时检测目标;2、 获取 region proposal,再对每个 proposal 分类计算量还是比较大。1、 提高了检测精度和速度;2、  真正实现端到端的目标检测框架;3、  生成建议框仅需约 10ms。
Fast R-CNN 框架与 R-CNN 有什么不同?① 最后一个卷积层后加了一个 ROI pooling layer;② 损失函数使用了 multi-task loss(多任务损失)函数,将边框回归直接加到 CNN 网络中训练。分类 Fast R-CNN 直接用 softmax 替代 R-CNN 用的 SVM 进行分类。Fast R-CNN 是端到端(end-to-end)的。 RCNN 如何实现目标检测?a. 在图像中确定约 1000-2000 个候选框b. 对于每个候选框内图像块,使用深度网络提取特征c. 对候选框中提取出的特征,使用分类器判别是否属于一个特定类d. 对于属于某一特征的候选框,用回归器进一步调整其位置更多细节可以参看这篇博客。 Fast RCNN 可以解决 RCNN 什么问题? 问题一:测试时速度慢RCNN 一张图像内候选框之间大量重叠,提取特征操作冗余。本文将整张图像归一化后直接送入深度网络。在邻接时,才加入候选框信息,在末尾的少数几层处理每个候选框。 问题二:训练时速度慢原因同上。在训练时,本文先将一张图像送入网络,紧接着送入从这幅图像上提取出的候选区域。这些候选区域的前几层特征不需要再重复计算。 问题三:训练所需空间大RCNN 中独立的分类器和回归器需要大量特征作为训练样本。本文把类别判断和位置精调统一用深度网络实现,不再需要额外存储。 faster rcnn,roi pooling 具体是如何工作的?(如何把不同大小的框,pooling 到同样的大小)RoIPool 首先将浮点数值的 RoI 量化成离散颗粒的特征图,然后将量化的 RoI 分成几个空间的小块(spatial bins),最后对每个小块进行 max pooling 操作生成最后的结果。 fine-tuning 的具体做法是?
  • 复用相同层的权重,新定义层取随机权重初始值.
  • 调大新定义层的的学习率,调小复用层学习率.
为什么不用 BP 神经网络去做呢? 1、全连接,权值太多,需要很多样本去训练,计算困难
  • 解决方法:减少权值的尝试,局部连接,权值共享
卷积神经网络有两种方式可以降低参数数目。第一种方式叫做局部感知野,一般认为人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。第二种方式,即权值共享。  6a1f0a743a8e8cd844ce9b42d155f487.png 2、边缘过渡不平滑
  • 解决方法:采样窗口彼此重叠
  3f8f950e5aeee6c2076fb9735af4a8e4.png LeNet 里的隐层的神经元个数怎么确定呢?它和原图像,也就是输入的大小(神经元个数)、滤波器的大小和滤波器在图像中的滑动步长都有关!LeNet-5 共有 7 层,不包含输入,每层都包含可训练参数(连接权重)。输入图像为 32*32 大小。 e2f23503df36aa21d088d0f940c769fd.png例如,我的图像是 1000x1000 像素,而滤波器大小是 10x10,假设滤波器没有重叠,也就是步长为 10,这样隐层的神经元个数就是 (1000x1000)/ (10x10)=100x100 个神经元了。那重叠了怎么算?比如上面图的 C2 中 28*28 是如何得来的?这里的步长就是 1,窗口大小是 5*5,所以窗口滑动肯定发生了重叠。下图解释了 28 的由来。  56d5ec9009441a5b1262b38c6022a74f.png S2 层是一个下采样层是干嘛用的?为什么是下采样?其实也可以理解为池化层,只是叫法不同而已。这层利用图像局部相关性的原理,对图像进行子抽样,可以减少数据处理量同时保留有用信息,相当于图像压缩。注:以上内容不代表准确概念,请自行参考。
510d2c5317093bc03f73e338237104c5.png

计算机视觉常见面试题型介绍及解答

第一期 | 第二期 | 第三期 | 第四期 | 第五期 

 阿里算法岗位最新编程题介绍及解析

第一期 | 第二期 | 第三期 | 第四期 | 第五期 | 第六期 | 第七期

ef9755d092ddc40b3b62dc86f54b0b83.png eea0f62a35b9630f07d035b9b105bc43.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值