ai面试的优缺点_【AI面面经】NO.1 一个算法面试官的自白

068b12c7545ce28a3ecad9042f785640.gif

《AI面面经》是本公众号新开的一个栏目,会分享给大家一些面试经验和故事,不定期发放一些AI面试题合辑,旨在帮助立志成为算法工程师的朋友们少走一些弯路,早日达成心中的目标。 作为面试官,我平时陆陆续续面试了不少应聘者,主要是算法岗,偶尔人手紧时也会面面java开发岗和数据开发岗。其中通过者有的在面试中大放异彩,也有表现一般,但我预期的点都达到了的。所以今天就从我个人角度来聊聊,当我们面试时。我们在面试什么? 首先说说我的评分原则:

基本原则

1.找亮点:我手比较松,一般很少挂人,总是会试图找应聘者的亮点、时间紧时也会让应聘者自述亮点,所以对于应聘者来说最好把自己的亮点准备好,在一个小时的面试时间中尽量展现。 2.一般我只会问简历上写了的知识点、当然,如果简历平平,知识面窄也是不会拿到高分的。

挂什么样的人

1.态 度恶劣,尤其是傲娇的 2.答 不上来时找各种理由强行解释的,比如说“你问的太细了、这问题太底层了、这问题太偏理论了”等等,这是个学习态度问题,大方承认这是自己的知识盲区并表示会学习补上并不难,每个人都会有盲区、不可耻、可耻的是不敢承认自己的不足、还要为不足强行找理由。

考察哪些方面

coding、算法、数学,面试过程中也会看出一个人的沟通能力、team work能力、学习能力等。

对于转专业

一般会问问他们自学历程+cs基本知识,如果自学时间短、水平也够——那说明此人够聪明、是加分项。所以说打铁还需自身硬,只要你有东西,转专业完全不是问题。   接下来大致说说我对各个方面比较爱考察的点: 特征工程: 离散、连续特征一般怎么处理(onehot、归一化、why、方法 等); 特征变换、构造/衍生新特征(woe、iv、统计量 等); 特征筛选(离散、连续、多重共线性 等); 采样(除了随机呢?); 缺失值处理(离散、连续)... 机器学习: 常用loss、正则、sgd、l-bfgs、auc公式及优缺点、数据不平衡时的调参; booting:gbdt的loss、分裂节点依据、防过拟合; xgb的loss选择、泰勒展开、正则(gbdt能加么)、并行、vs lightGBM; lambdaMart的loss--如何直接优化metric(如NDCG)--学习/train过程; svm的优化目标、软间隔、调参; lr; rf; 深度学习: dnn为什么要“deep”、deep后带来的信息传递/梯度传递问题及其优化策略(可以从网络结构、activation、normalization等方面阐述); 卷积层学习过程(前后向)及参数数量估计; polling作用、优缺点、why用的越来越少; rnn长依赖问题、梯度问题; lstm的input output forget gate作用于哪、gru的update gate呢? 常用loss(分类、回归)、activation、optimizer(从一阶矩估计到二阶)、加了BN后做predict均值方差从哪来、常用的attention举例 强化学习: 什么问题适合RL/MLE的缺陷、trail-and-errorsearch、policy-based vs value-based、on-policy vs off-policy等 q learning中q值得更新(其实很好记:当前q值 += 学习率*(环境reward+ 新状态下最大的q值*衰减值)、为什么要乘衰减值); DQN使用network代替q_table的初衷、两个network(结构一致、参数交替更新)、存储记忆 off-policy; policy gradients如何学习/拟合目标( -log(prob)*vt 像不像交叉熵...)、按概率选action vs epsilon-greedy; Actor-Critic中的actor与critic、优缺点、收敛问题、DDPG、 以上这些都是考察基本功的、基本都是书上的知识点 NLP: 词法/序列标注相关:hmm、crf、lstm、lstm+crf(细节:对于转移特征、转移概率 hmm crf lstm+crf分别是怎么学的?) 句法:有了依存关系 如何确定主谓宾、举几个例子 word2vector:层次softmax、负采样、 vs GloVe topic相关:lsa(可以引到svd、基于mse的fm);lda why引入共轭先验分布、调参(针对两个先验); +DL:cnn filter的设计、seq2seq+attention的padding问题(对padding的字符如何做attention、如何忽略、用tensorflow/pytorch大致写一下)、tree lstm... 任务相关:beam search做生成、dialog中对回复做lable smooth 提高回复多样性... CV : cv领域常见的基本概率,卷积操作、池化操作,神经网络,BN层,欠拟合和过拟合,drop out等等 手撕代码:实现NMS的全过程:包括按score排序,IOU的计算,NMS的操作 项目: 这个就太广了,不好列举具体问题,总之就是聊聊:项目背景、问题、解决方案(how、why)、效果,如果答的磕磕绊绊、被认定为虚假项目 or 蹭项目 妥妥的扣分项,否则依据项目难度加分。 coding: 我一般会先问问应聘者刷了多少题,再根据他的专业出一道我觉得他能答上来的题,根据题目的难易和答题情况给分。常问的是二分及其变体,别觉得二分简单,其各种变体和边界条件的考虑也是挺麻烦的。还有dp、dfs、树相关的算法。 数学: 十有八九都是概率题、概率题中十有八九都是条件概率。 智力题: 讲真、我不喜欢出智力题、脑筋急转弯题,这种题如果见过一般秒答、没见过很难想到方案,关键是我无从判断他是否见过、个人觉得意义不大。 以上都是我的个人习惯,如果照搬我所说的去面试,那后果可能会不堪设想哦。大家可以通过我的提问找找自己还有没有什么欠缺的。 今天就分享到这, 如果大家有什么求职相关的问题可以在评论区留言,我会为大家提出我的见解的。   6041ae12ff98f12b7684962a72384491.png

大家的每一个转发和在看

都是我们认真更新的动力~

6041ae12ff98f12b7684962a72384491.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值