面试之深信服算法岗

我的面试经
说说项目,然后一大批围绕项目展开。Python的迭代器,Python中那些类型可以作为字典键。有什么想问我的
深信服(算法工程师)

  1. 选择自己觉得做的最好的项目从需求、样本、特征工程、模型选择等介绍
  2. 模型融合的优势以及方法。
    优势:随着集成中个体分类器数目T 的增大,集成的错误率将指数级下降,最终趋向于零。
    方法(基学习器是否存在强依赖):bagging(优化方差),boosting(优化偏差),stacking,blending
  3. 会哪些机器学习算法:决策树,朴素贝叶斯分类,最小二乘法,逻辑回归,支持向量机,集成方法;聚类算法,主成分分析,奇异值分解,独立成分分析,
  4. LR和SVM的区别:都是分类算法;若不考虑核函数,分类决策面都是线性的;都是监督学习算法;都是判别模型
    区别:
    1) 损失函数不同,LR损失函数,SVM损失函数
    2) SVM 只考虑局部的边界线附近的点,LR 考虑全局,远离的点对边界线的确定也起作用
    3) 在解决非线性问题时,SVM 采用核函数的机制,而 LR 通常不采用核函数的方法
    4) 线性 SVM 依赖数据表达的距离测度,所以需要先对数据做 normalization, LR 则不受影响。
    5) SVM损失函数自带正则。LR需要添加正则项
  5. 白样本多,黑样本少,选择哪个模型更加合适
    决策树往往对类别不均衡的数据表现不错;使用SVM,其超平面的选取只与支持向量有关。解决方法:数据重采样,扩充数据集(数据合成),加权(为样本数较少的损失函数设置较大的权重),更换其他分类标准
  6. LR过拟合是什么样的情形,如果样本有很多重复的特征,对于LR训练效果有没有影响
    LR过拟合:过度拟合训练数据,对测试数据表现不友好。降低维度(PCA算法降维),正则化(给代价函数添加正则项)。LR处理重复特征:较为敏感,例如两个高度相关自变量同时放入模型,可能导致较弱的一个自变量回归符号不符合预期,符号被扭转。需要利用因子分析或者变量聚类分析等手段来选择代表性的自变量,以减少候选变量之间的相关性;(逐步回归分析常用与解决多重共线性)
  7. 深度学习模型的初始化要注意哪些问题:权重随机初始化,避免网络退化,初始化范围要小,缩小样本空间,输入样本要BN,防止梯度消失
  8. 问了给一本圣经和一个单词,如何统计圣经中单词出现的次数(mapreduce):grep –o 单词 文件名|wc -l
  9. 怎么做word2vec,rmsprop优化器底层的原理(和动量方法类似)
  10. kmeans原理,优缺点,如何不自己设置k就能知道k取多少
    原理:对于给定的样本集,按照样本之间的距离大小,将样本集划分为K个簇。让簇内的点尽量紧密的连在一起,而让簇间的距离尽量的大。
    优缺点:优(原理简单,实现方便,收敛速度快,聚类效果较优,模型的可解释性较强,调参只需要调整k);缺(k的取值不好把控,非凸数据集难收敛,类型不平衡的数据聚类效果不好,得到局部最优[迭代],对于噪音和异常点敏感)
    K值的确定:手肘法(误差平方和);轮廓系数(凝聚度a和分离度b)
  11. grid search:网格搜索,一种调参手段
  12. nlp现在发展:单个学习器,集成学习,强化学习;完全监督,半监督,无监督,迁移学习
  13. overfitting解决,如何从100个特征中选20个特征
    过拟合:使用更小的batch size,正则化模型,减少模型参数,扩大数据集,提早结束训练,droupot,batch normalize,集成学习。特征选择:过滤式(通过对每一维进行打分选择高分特征),包裹式(通过启发算法将特征子集的选择看成是搜索寻优问题),嵌入式(在确定模型的过程中,挑选出那些对模型的训练有重要意义的特征,类似回归)
  14. 垃圾短信多分类任务(如何分开发票,广告,商铺信息等):SVM
  15. L1正则和L2正则的区别:正则化的本质:加入惩罚项,约束优化空间
    L1和L2的区别:他们都可以看做是损失函数的惩罚项,L1正则添加了Laplace先验(结构化风险项)是一个一范数;L2正则添加了Gaussian先验,是一个二范数。使用L1范数,可以使得参数稀疏化(权重稀疏),用L2范数,倾向于使参数稠密地接近于0(权重平滑)。L1减少的是一个常量,L2减少的是权重的固定比例
  16. Python相关面试题(迭代器,字典的键的要求[可hash对象,不可变类型,比如数字,字符串,元组])
    迭代器:只要一个对象有__iter__方法和__next__方法,那么这个对象就可以叫做迭代器。对一个可迭代对象调用它的__iter__方法,得到的就是迭代器对象。
    优缺点:优(不依赖索引,惰性计算,节省内存);缺(不如按索引取值方便;一次性,只能往后取,不能往回退)
  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值