算法面试笔试
文章平均质量分 96
记录面试笔试的相关内容
猎猎长风
士不可以不弘毅,任重而道远。
展开
-
【BERT】Transformer/BERT/Attention面试问题与答案
文章目录1. Self-Attention 的核心是什么?2. 不考虑多头的原因,self-attention中词向量不乘QKV参数矩阵,会有什么问题?3. 在常规attention中,一般有k=v,那self-attention 可以嘛?4. self-attention 在计算的过程中,如何对padding位做mask?5. Self-Attention 的时间复杂度是怎么计算的?6. transformer中multi-head attention中每个head为什么要进行降维?本文主要参考知乎作原创 2021-12-09 12:11:26 · 4540 阅读 · 2 评论 -
机器学习面试笔试超详细总结(二)(转载)
51、概率和信息量的关系示例:符号集 a 、 b 、 c 、 d ,它们相互独立,相应概率为 1/2 、 1/4 、 1/8/ 、 1/16 ,其中包含信息量最小的符号(a)解析: 消息出现的概率越小,说明限制条件越多,则消息中所包含的信息量就越大; 事件出现的概率越大,说明限制条件越少,则所包含的信息量就越小; 52、数据清理中,缺失值的处理方法数据清理中,处理缺失值的方法有两种:一、删除法:删除观察样本 删除变量:当某个变量缺失值较多且对研究目标影响不大时,转载 2020-09-10 12:12:56 · 2372 阅读 · 0 评论 -
机器学习面试笔试超详细总结(一)(转载)
目录1、判别模型和生成模型2、最大概率分词3、中文分词的基本方法4、CRF(条件随机场)的特点5、隐马尔可夫模型(HMM)时间复杂度及可以使用的数据集6、在二分类问题中的评价方案7、决策树特点8、过拟合9、异方差性10、Fisher线性判别函数/PCA11、参数估计算法12、Naive Bayesian(NB)分类模型,数据重复问题13、下列那个方法不可以对文本分类14、主分量问题15、logit 回归和SVM 的对比16、影响聚类算法结果的主转载 2020-09-10 11:09:00 · 3765 阅读 · 0 评论