深度学习
CV找工作真难
这个作者很懒,什么都没留下…
展开
-
人脸常用loss
arcface loss cosface loss sphereFace 参考: https://zhuanlan.zhihu.com/p/119396037 人脸这些损失函数总的思想就是: 最大化类间距离, 最小化类内距离 这篇博客总结面试人脸 loss 和 可能的面试问题。 loss 包括: arcface loss (Addictive Augular Margin Loss) cosface loss (Large margin cosine loss) 面试问题: 为什么有些loss里权重和特原创 2020-06-19 16:42:10 · 504 阅读 · 0 评论 -
Batch Normalization 相关
原文地址: https://arxiv.org/pdf/1502.03167.pdf Inception V2 在V1的基础上引入了Batch Normalization的操作。 为甚么引入 \gamma, \beta? 原文: Note that simply normalizing each input of a layer may change what the layer can represent. For instance, normalizing the inputs of a sigmoid原创 2020-06-18 20:35:14 · 184 阅读 · 0 评论 -
优化算法(SGD, Momentum, Adagrad, Adam)
优化算法通常只考虑最小化目标函数。其实,任何最大化问题都可以很容易地转化为最小化问题。 很多优化问题并不存在解析解,而需要使用基于数值方法的优化算法找到近似解,即数值解。 为了求得最小化目标函数的数值解,我们将通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。 深度学习模型的目标函数可能有若干局部最优值。当一个优化问题的数值解在局部最优解附近时,由于目标函数有关解的梯度接近或变成零,最终迭代求得的数值解可能只令目标函数局部最小化而非全局最小化。 SGD,Momentum,Adagard,Adam简述转载 2020-06-16 12:26:34 · 804 阅读 · 0 评论