【未知】
- 简述PCA的思想及作用?
思想:假设我们一组数据X={x1, x2, ... ,xn},我们想要在更低的维度找到一组相似的数据来表示原有的数据。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。
作用:降维。
- 简述sift特征点的求解过程
- 简述dropout层的作用和思想?
- 简述正则化的作用?
- 怎么处理类别不平衡的样本?
- 有哪些防止过拟合的手段?
- 简述深度学习中目标检测的常用方法、异同。
- RNN\LSTM\GRU的区别
【爱奇艺】
- L1/L2正则
- resnet、densnet
- ssd、yolo——友情链接:ssd、yolo
- BN——友情链接:batch normalization
- svm核函数
之前在面试今日头条算法工程师的时候,被问到了常用的核函数如何选择的问题,根据网上的答案,总结如下:
在选取核函数解决实际问题时,通常采用的方法有:一是利用专家的先验知识预先选定核函数;二是采用Cross-Validation方法,即在进行核函数选取时,分别试用不同的核函数,归纳误差最小的核函数就是最好的核函数.如针对傅立叶核、RBF核,结合信号处理问题中的函数回归问题,通过仿真实验,对比分析了在相同数据条件下,采用傅立叶核的SVM要比采用RBF核的SVM误差小很多。在我的研究做实验过程中,最常用的是Linear核与RBF核。
1). Linear核:主要用于线性可分的情形。参数少,速度快,对于一般数据,分类效果已经很理想了。
2). RBF核(高斯核):主要用于线性不可分的情形。参数多,分类结果非常依赖于参数。有很多人是通过训练数据的交叉验证来寻找合适的参数,不过这个过程比较耗时。我个人的体会是:使用libsvm,默认参数,RBF核比Linear核效果稍差。通过进行大量参数的尝试,一般能找到比linear核更好的效果。
- AlexNet大概是什么结构,与LeNet相比,有什么改进?
[原创]#Deep Learning回顾#之LeNet、AlexNet、GoogLeNet、VGG、ResNet
(1) Data Augmentation:水平翻转、随机裁剪、平移变换、颜色、光照变换
(2)Dropout
(3)ReLU激活函数
(4)Local Response Normalization,即利用临近的数据做归一化
(5)Overlapping Pooling,即Pooling的步长比Pooling Kernel的对应边要小
(6)多GPU并行
- 比较VGG和LeNet(VGG中3*3卷积核最大的优势!!!!【海康威视也面了】)---考过
- resnet主要解决什么问题
- 对梯度消失和如何防止过拟合的看法(粉色的说明之前已经有过总结了!!!)
- 对深度学习的看法(CNN的局限性与强大之处)