算法工程师面试
Yolo_C
奋斗在bug与debug之间
展开
-
Transformer中的attention的来龙去脉
论文原文Attention is all you need:https://arxiv.org/pdf/1706.03762.pdf参考的链接:https://zhuanlan.zhihu.com/p/46990010https://www.tensorflow.org/tutorials/text/transformerhttps://segmentfault.com/a/11900000200210781 general的attention机制【以下为原文的翻译】注意力函数可视为将一个q原创 2020-11-26 02:38:34 · 674 阅读 · 0 评论 -
Transformer中self-attention、RNN、CNN的性能对比
论文原文Attention is all you need:https://arxiv.org/pdf/1706.03762.pdf输入序列(x1,x2,...,xn)(x_1,x_2,...,x_n)(x1,x2,...,xn)输出序列(z1,z2,...,zn)(z_1,z_2,...,z_n)(z1,z2,...,zn)xi,zi∈Rdx_i,z_i \in R^dxi,zi∈Rdn:序列长度d:表征维度k:卷积大小r:restricted self-attentio原创 2020-11-12 00:38:29 · 1203 阅读 · 1 评论 -
算法工程师面试系列-逻辑回归篇
逻辑回归的条件逻辑回归损失函数逻辑回归剃度下降逻辑回归的适用场景(需不需要归一化,对缺失值)原创 2020-09-29 23:24:16 · 243 阅读 · 0 评论 -
算法工程师面试系列-机器学习之树模型篇
本系列收集看到的网上讲解树模型比较详细的帖子(持续更新中)决策树单树模型主要包括ID3、C4.5以及CART;集成模型主要随机森林、BDT、GBDT、XGBOOST、catboost等知乎上的一个讲解决策树的三个算法ID3、C4.5以及CART;集成的思想bagging v.s. boosting集成模型:随机森林、BDT、GBDT以及XGBOOST;其中XGBOOST和随机森林在面试数据挖掘岗位的时候还是经常被问到的...原创 2020-09-21 23:15:02 · 155 阅读 · 0 评论