算法面经之讯飞+CVTE

一、科大讯飞(合肥)

       概况:刚经历了科大讯飞的初面,大概35分钟左右,问的内容比较笼统,主要针对简历上的内容来,面试官比较亲切,回忆了一下面试内容。

       建议:把简历上的内容整吧清楚,不知道的别瞎写,写了就要知道点,还要说的比较匀称、圆满。

       1.你简历上写的这个聚类的项目,具体是怎么做的呢?

       2.你这个文字识别是用什么方法呢?检测用的什么?说一下该方法的具体使用?既然单阶段的结果不够好为什么不试一下其他方法呢?

       3.期望薪资是多少?

       4.家哪里的?有对象吗?

       5.有什么想问的?

       小声bb:约好的两点半,我左等右等焦躁如思春少女,半小时等不来刚进厕所然后电话面试来了,吐血。

      一面已过,二面等面了再来更。

      二面已挂,就俩问题,没答出来已经gg,问题:

      1.谱聚类图切怎么整的?

      2.矩阵分解方法?

二、CVTE(广州)

       概况:这个公司感觉不够友好,问题贼多,贼广,怕是挂唧唧。

       建议:图像处理、深度学习、机器学习各个方面都要看。

       数学方面:

      1.机器学习中,1范数和2范数的比较?

       答:参考 https://blog.csdn.net/zouxy09/article/details/24971995%20

            l1范数:向量中各个元素的绝对值之和,矩阵中沿列方向绝对值求和再选出最大值,稀疏规则算子,是l0范数的最优凸近似,比l0好解;

                         能够实现稀疏,完成特征选择,模型更容易理解;

                         倾向于元素大部分=0。

           l2范数:向量的平方和的平方根,矩阵的最大特征值开方;

                        可以防止过拟合,提升模型的泛化能力(小参数说明模型简单,模型简单解决过拟合);

                        让优化求解更稳定(矩阵病态,加二范数正则,解析解+λI)快速;

                        倾向于元素小,≠0。

      2.SVD怎么做的?意义?和特征值分解的区别和联系?

       答: 参考 https://blog.csdn.net/shenziheng1/article/details/52916278

           意义:A=Q∑Q-1 一个矩阵就是一个线性变换(一个矩阵乘以一个向量得到另一个向量相当于将该向量进行了变换),高维的矩阵就相当于高维空间的变换,这个变换有很多的变换方向,通过特征值得到的前N个特征向量,就是该矩阵主要的变换方向。所以,矩阵特征值分解可以得到特征向量,特征值表示这个特征向量多重要,特征向量表示这个变换方向是什么。

                     A=U∑VT,奇异值分解就是提取矩阵的主要部分。

           做法:奇异值的计算是一个难题,是一个O(N^3)的算法。

           区别:

                   特征值分解要求矩阵必须是方阵,但是所有的矩阵都能进行奇异值分解;

                   当矩阵是对称的方阵,它的奇异值分解就是特征值分解,即特征值分解是奇异值分解的一个特例。

      机器学习:

      3.SVM的核函数?SVM离群点?

      答:

           核函数:一个低维空间向高维空间的映射,这个映射可以把低维空间线性不可分的变成线性可分的。可能面临维度灾难,使用对偶和核技巧可以避免显示的特征变换。

                     计算两个向量在隐式映射过后的空间中的内积的函数叫做核函数,核函数能简化映射空间中的内积运算,且SVM 里需要计算的地方数据向量总是以内积的形式出现的。避开了直接在高维空间中进行计算,而结果却等价。

          离群点:采用软间隔的方法,允许一些样本不满足约束,但是这种样本越少越好,比如采用l0,1损失函数,有些离群点计算的时候不计入损失,或者以一定的权重计入损失等。

      4.过拟合和欠拟合?解决方案?

       答:

          判断:根据学习误差曲线,训练集误差增大测试集误差减小说明在学习,属于欠拟合。测试集误差变大,训练集误差很小属于过拟合。

           过拟合

           定义:学习到的模型在训练样本中表现的过于优越,导致在测试集或验证集上泛化能力差表现不佳。即学习得过于彻底,将噪声也学到了。

           情况:参数过多;模型过大;训练样本过少;数据不纯;

           措施:加入正则项;dropout;(训练的时候让神经元以一定的概率不工作)扩大训练样本集;清洗数据;

           欠拟合

            定义:模型不能很好的捕捉到数据特征,不能很好的拟合数据。

           情况:特征不够好或者维度不够,训练时间不够

           措施:更换更好的特征;增加网络复杂度;减少正则化参数;增大训练时间

      5.logistic回归?

      答:见 https://www.cnblogs.com/EstherLjy/p/9343616.html       

      图像方面:

      6.形态学操作?

      答: 见 https://www.cnblogs.com/EstherLjy/p/9348047.html%20

      7.边缘检测算法?

      答:见 https://www.cnblogs.com/EstherLjy/p/9347919.html

      深度学习方面:

      8.sigmod函数的优缺点?

      答:见 https://www.cnblogs.com/EstherLjy/p/9343487.html

      9.有自己开发的layer吗?

      10.偏差和方差?

      答:

           误差=偏差+方差,偏差表示的是输出与Gt的误差,即模型的准确度,方差指的是模型在不同数据集上的预测值与所有数据集平均预测值之间的差异,即模型稳定性。

      11.resnet?

      答:见 https://www.cnblogs.com/EstherLjy/p/9350118.html

      12.Inception?

     答: 见 https://www.cnblogs.com/EstherLjy/p/9350118.html

      目标检测方面:

      13.faster RCNN的anchor机制?

      答:见 https://www.cnblogs.com/EstherLjy/p/9328996.html

      14.Mask RCNN?

      答: 见 https://www.cnblogs.com/EstherLjy/p/9328996.html

      15.单阶段小目标漏检?

      答:

           样本不均衡(可通过给负样本加权重和控制负样本数量来改善);拍摄时目标比较小丢失信息(模糊等,边缘信息等),不能很好的学习;丢进网络也是越来越小,更小可能被视为噪音。

      16.selective search?

      答:见 https://www.cnblogs.com/EstherLjy/p/9328996.html

      小声bb:和科大讯飞刚好一个后脚要结束一个前脚要开始,还重合了一分钟。

      一面已过,二面等面了再来更。

     -----------------------------------------------------------------

     二面来了。已挂。

     概况:二面的面试官仿佛一个zz,面试官不是做目标检测的,全程问我文字检测的问题,感觉他并不知道神经网络是什么,而且问的感觉都是**问题,解释了他还听不懂,简直一个杠精。各种打断别人说话,一句话没说超过三秒过。

     建议:这种没啥建议了。

     问题:1.文字检测你是怎么做的呢?(首先用基础网络提取特征然后....)

                2.哎我打断,神经网络怎么就能知道他是不是文字呢?(光这个问题解释了十分钟硬是听不懂....这不是神经网络常识吗?不是你喂什么他出什么吗??)

                3.哎我打断,神经网络你就这样搞搞技术壁垒呢?(在于神经网络的设计,比如架构等,如变形卷积,inception,resnet)

                4.哎我打断,不用神经网络你怎么做?(传统方法先提取连通分量再....)

                5.哎我打断,怎么提取连通分量?(这基于一个观察说文字一般是连通的...)

                6.哎我打断,文字怎么就是连通的?少数民族文字就不是啊?(您说的对,我指的是大部分的,针对中英文,其他的....)

                7.哎我打断,连通的也不一定是文字啊,比如杂草就不是啊?(您说的对,所以我说的这是第一阶段,提取连通分量,后面会采用分类器过如svm滤....)

                8.哎我打断,svm只是一种手段,跟神经网络一样,特征你怎么提?(文字有一定的特性,如宽高比等)

                9.哎我打断,电线杆也是宽高比符合啊?(您说的对,所以后面会训练过滤呀)

                10.哎我打断,你又要用分类器,我觉得你掉入神经网络里面了.......(卧槽?不用分类器你搞锤子哦?)

                ....................

              小声bb:  坚定了不去这家公司的信念。

   ----------------------------------------------------------------

   两公司提前批已挂,秋招均未投简历,此文终结。

               

   

     

 

转载于:https://www.cnblogs.com/EstherLjy/p/9329011.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值