【机器学习】随便挤一挤

【未知】

  • 简述PCA的思想及作用?

PCA的数学原理

思想:假设我们一组数据X={x1, x2, ... ,xn},我们想要在更低的维度找到一组相似的数据来表示原有的数据。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。
作用:降维。

  • 简述sift特征点的求解过程
  • 简述dropout层的作用和思想?
  • 简述正则化的作用?
  • 怎么处理类别不平衡的样本?
  • 有哪些防止过拟合的手段?
  • 简述深度学习中目标检测的常用方法、异同。
  • RNN\LSTM\GRU的区别

【爱奇艺】

DenseNet算法详解

之前在面试今日头条算法工程师的时候,被问到了常用的核函数如何选择的问题,根据网上的答案,总结如下:
在选取核函数解决实际问题时,通常采用的方法有:一是利用专家的先验知识预先选定核函数;二是采用Cross-Validation方法,即在进行核函数选取时,分别试用不同的核函数,归纳误差最小的核函数就是最好的核函数.如针对傅立叶核、RBF核,结合信号处理问题中的函数回归问题,通过仿真实验,对比分析了在相同数据条件下,采用傅立叶核的SVM要比采用RBF核的SVM误差小很多。

在我的研究做实验过程中,最常用的是Linear核与RBF核。
1). Linear核:主要用于线性可分的情形。参数少,速度快,对于一般数据,分类效果已经很理想了。
2). RBF核(高斯核):主要用于线性不可分的情形。参数多,分类结果非常依赖于参数。有很多人是通过训练数据的交叉验证来寻找合适的参数,不过这个过程比较耗时。我个人的体会是:使用libsvm,默认参数,RBF核比Linear核效果稍差。通过进行大量参数的尝试,一般能找到比linear核更好的效果。


  • AlexNet大概是什么结构,与LeNet相比,有什么改进?

[原创]#Deep Learning回顾#之LeNet、AlexNet、GoogLeNet、VGG、ResNet

  (1) Data Augmentation:水平翻转、随机裁剪、平移变换、颜色、光照变换

(2)Dropout

(3)ReLU激活函数

(4)Local Response Normalization,即利用临近的数据做归一化

(5)Overlapping Pooling,即Pooling的步长比Pooling Kernel的对应边要小

(6)多GPU并行

  • 比较VGG和LeNet(VGG中3*3卷积核最大的优势!!!!【海康威视也面了】)---考过
  • resnet主要解决什么问题
  • 对梯度消失和如何防止过拟合的看法(粉色的说明之前已经有过总结了!!!)
  • 对深度学习的看法(CNN的局限性与强大之处)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值