常见AI面试题及答案

考察数据科学家深度学习水平的30道题

特征工程

离散、连续特征一般怎么处理(onehot、归一化、why、方法 等);

特征变换、构造/衍生新特征(woe、iv、统计量 等);

特征筛选(离散、连续、多重共线性 等);

采样(除了随机呢?);

缺失值处理(离散、连续)...

机器学习

常用loss、正则、sgd、l-bfgs、auc公式及优缺点、数据不平衡时的调参...

booting:gbdt的loss、分裂节点依据、防过拟合;

xgb的loss选择、泰勒展开、正则(gbdt能加么)、并行、vs lightGBM;

lambdaMart的loss--如何直接优化metric(如NDCG)--学习/train过程;

svm的优化目标、软间隔、调参;

lr;rf;

深度学习

dnn为什么要“deep”、deep后带来的信息传递/梯度传递问题及其优化策略(可以从网络结构、activation、normalization等方面阐述);

卷积层学习过程(前后向)及参数数量估计;

polling作用、优缺点、why用的越来越少;

rnn长依赖问题、梯度问题;

lstm的input output forget gate作用于哪、gru的update gate呢?

常用loss(分类、回归)、activation、optimizer(从一阶矩估计到二阶)、加了BN后做predict均值方差从哪来、常用的attention举例

强化学习

什么问题适合RL/MLE的缺陷、trail-and-error search、policy-based vs value-based、on-policy vs off-policy等

q learning中q值得更新(其实很好记:当前q值 += 学习率*(环境reward+ 新状态下最大的q值*衰减值)、为什么要乘衰减值);

DQN使用network代替q_table的初衷、两个network(结构一致、参数交替更新)、存储记忆 off-policy;

policy gradients如何学习/拟合目标( -log(prob)*vt 像不像交叉熵...)、按概率选action vs epsilon-greedy;

Actor-Critic中的actor与critic、优缺点、收敛问题、DDPG、

以上这些都是考察基本功的、基本都是书上的知识点

NLP

词法/序列标注相关:hmm、crf、lstm、lstm+crf(细节:对于转移特征、转移概率 hmm crf lstm+crf分别是怎么学的?)

句法:有了依存关系 如何确定主谓宾、举几个例子

word2vector:层次softmax、负采样、 vs GloVe

topic相关:lsa(可以引到svd、基于mse的fm);lda why引入共轭先验分布、调参(针对两个先验);

+DL:cnn filter的设计、seq2seq+attention的padding问题(对padding的字符如何做attention、如何忽略、用tensorflow/pytorch大致写一下)、tree lstm...

任务相关:beam search做生成、dialog中对回复做lable smooth 提高回复多样性...

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

haimianjie2012

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值