计算机视觉算法岗面试

转自https://blog.csdn.net/qq_28214097/article/details/80007627
https://blog.csdn.net/qq_28214097/article/details/80007627
SVM:
线性回归:
逻辑回归:
tensorflow原理、细节:
SIFT原理:
拉普拉斯图像融合算法:
PCA原理:
反向传播原理:
梯度消失的原因和解决办法:
决策树:
随机森林:
K-means的基本流程:与KNN的区别:
梯度下降法与牛顿法的区别与优劣:
区别:梯度下降法是一阶,牛顿法是二阶
牛顿法相对于梯度下降法:优点:二阶比一阶收敛速度快;缺点:对目标函数严格,要求目标函数二阶可微,Hessian矩阵正定;需要计算Hessian矩阵以及它的逆,计算量大。
描述Canny算法的流程:
以下是简述:
1.先用高斯滤波器进行图像模糊(一般边缘检测算法都需要先滤波降低对噪声的敏感)
2.计算图像的梯度幅值图像和角度图像(计算梯度即提取边缘,参考其它边缘检测算法;计算角度是为步骤3要用)
3.对梯度幅值图像进行非最大值抑制(目的是为了细化边缘)
4.用双阈值对边缘进行选择和连接(主要思想是把弱边缘连接到强边缘上)
CNN最成功的应用是在CV,那么为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AIphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?
CNN是用于挖掘数据之间的空间相关性(相对于RNN用于挖掘时序相关性),所以不管是NLP,Speech还是AlphaGo,只要数据之间存在空间相关性,就可以使用CNN。而CNN最成功的应用在CV是因为在图像数据中的空间相关性最明显,像素之间存在两个维度上的空间相关性。回答CNN通过什么手段抓住此共性这个问题,实质上是回答卷积和池化的特点。主要手段有局部连接(local connectivity)、权值共享(parameter sharing)和池化(pooling)局部连接和权值共享有效地减少了网络的权值参数,抑制过拟合,同时保持了原始数据之间的空间联系。池化是下采样的一种方式,只取数值最大的特征,减少参数并且在空间上对原图物体保持平移不变性。
什么样的资料集不适合用深度学习?
数据集太小。数据集太小时,用深度学习提取出来的特征非常容易过拟合,没有泛化能力,因而不及传统的机器学习方法。其本质是样本空间太稀疏,不能反映总体空间的分布,因而用深度学习得到的模型会过拟合。
数据之间没有局部相关性。深度学习对于结构化的数据提取特征有非常好的效果,但对于没有结构化的数据,即数据之间不存在局部相关性,如可能存在统计关系等,此时用深度学习就不是很合适。
激活函数选用什么,有什么好处,为什么?
sigmoid:
表达式:
求导:在这里插入图片描述
在这里插入图片描述
特点:增强0附近的梯度,放大信号,梯度计算方便,但对非敏感区域会饱和,造成梯度消失
tanh:

在这里插入图片描述求导:
在这里插入图片描述

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值