![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
面试
文章平均质量分 81
futurewq
活到老,学到老
展开
-
金(铁)三银(铜)四社招回忆录
第二个风控方向,薪资相对比较低,工作内容不错,是自己犹豫的一家。第五家,物流方向的,给的薪资也是最高的,真的本来很想去的,薪资实在是诱惑人,而且给我流程走的很快,直属leader和大leader都很认可我,hr也在给我争取尽快走流程,去挽留我,但是请教了一些前辈 以及自己静下心来想了想,还是觉得先选择一个好的方向和好的平台,这样以后也许能获得更多,主要还有一个原因就是前面的offer发了比较早,这家offer还得在等几天,前面offer实在是等不起了,而且也天天催我,就鉴于这些原因,忍痛放弃了。原创 2023-06-15 10:20:35 · 84 阅读 · 0 评论 -
社招准备和面试题
重点掌握了自己认为比较重要的深度学习模型,transformer,bert,这些都是必须要掌握的,包括每个模型里面涉及的细节,比如transformer里面的注意力分数为啥要除以sqrt(d_k),为啥用的是LayerNormalization,不用BatchNormalization。另外就是基于自己的简历,简历项目里面提到的技术都要熟悉。题目一定要多刷,刷的多了,真的能提高不少,我这次遇到了很多之前自己刷到的,有些是原题,有些是稍微的变体,但也不难,印象最深刻的是遇到了一个hard的变体,就觉得绝。原创 2023-06-15 10:29:38 · 1708 阅读 · 0 评论 -
随机森林!
体现(与传统决策树的差异):对基决策树的每个节点,先从该节点的属性集合中随机选择包含K(log2(d))个属性的子集,然后再从这个子集中选择一个最优的属性用于划分。同时,由于树节点分裂时,随机选取特征,进一步降低了模型之间的相关性。最后,对这N棵树的(err_oob2-err_oob1)求和取平均,如果值变化很大(即err_oob2上升),说明这个特征的重要性很高。(1)假设有n个独立同分布的模型,每个模型的方差均为σ^2,均值为μ,那么多模型平均后的方差仅为单模型的1/n,偏差与单模型的偏差近似。原创 2023-03-17 17:39:26 · 711 阅读 · 0 评论 -
集成方法!
集成方法原创 2023-03-17 17:02:22 · 684 阅读 · 0 评论 -
决策树基础知识点解读
决策树原创 2023-03-17 16:04:43 · 599 阅读 · 0 评论 -
逻辑回归全方位认识
直观的,根据极大似然法将这些条件概率连乘取对数取反得到逻辑回归的损失函数,意义在于希望能够最大化这些样本出现的概率,极大似然本身的假设就是真实存在的样本出现的概率最大,而相对应的参数就是能够使得这些数据出现概率最大的参数,取反则变成希望真实存在的样本出现的概率的负数最小(也就是我们上面的损失函数的公式)否则量纲大的特征的梯度更新量大,量纲校的特征的梯度更新量小,特征之间的收敛速度差别大导致整体的收敛速度慢(因为更新快的特征要等更新慢的特征的权重系数收敛)其次是特征多了,本身就会增大训练的时间。原创 2023-03-15 15:57:47 · 459 阅读 · 0 评论 -
ROC和AUC
AUC,ROC原创 2023-03-11 16:51:48 · 621 阅读 · 0 评论 -
L1正则化与L2正则化
L1,L2正则化,机器学习原创 2023-03-10 14:23:28 · 539 阅读 · 0 评论 -
LayerNormalization
LayerNormalization,归一化原创 2023-03-10 10:49:04 · 445 阅读 · 0 评论 -
Dropout
dropout,正则化原创 2023-03-09 23:25:28 · 491 阅读 · 0 评论 -
BatchNormalization
batch normalization原创 2023-03-09 22:01:18 · 638 阅读 · 0 评论 -
常见问题整理1
机器学习常见基础面试问题原创 2023-03-09 19:04:46 · 441 阅读 · 0 评论 -
DSSM模型
DSSM模型原创 2023-03-03 00:20:01 · 176 阅读 · 0 评论 -
前深度学习经典模型-FM
FM模型原创 2023-03-02 21:47:51 · 217 阅读 · 0 评论 -
deepFM模型
deepfm模型原创 2023-03-02 21:25:18 · 127 阅读 · 0 评论 -
Autoint模型
autoint模型转载 2023-03-02 21:04:13 · 148 阅读 · 0 评论 -
Bert模型
bert模型转载 2023-03-01 23:37:57 · 150 阅读 · 0 评论 -
word2vec模型
word2vec转载 2023-03-01 01:03:00 · 124 阅读 · 0 评论 -
Wide&Deep模型
wide&deep模型原创 2023-02-27 19:05:47 · 367 阅读 · 0 评论 -
DSIN模型
DSIN模型原创 2023-02-27 12:07:41 · 477 阅读 · 0 评论 -
Transformer模型
transformer原创 2023-02-24 11:38:22 · 438 阅读 · 0 评论 -
DIEN模型
DIEN原创 2023-02-15 23:18:14 · 242 阅读 · 0 评论 -
DIN模型
DIN原创 2023-02-14 23:48:51 · 264 阅读 · 0 评论 -
逻辑回归模型
逻辑回归原创 2023-02-13 18:02:57 · 71 阅读 · 0 评论 -
LightGBM
lightgbm原创 2023-02-10 18:41:46 · 1268 阅读 · 0 评论 -
XGBoost
xgboost原创 2023-02-09 16:37:56 · 316 阅读 · 0 评论 -
GBDT(梯度提升树)
GBDT原创 2023-02-08 18:13:50 · 470 阅读 · 0 评论