机器学习
急流勇进
越努力,越幸运。
展开
-
[metric]ROC和PR曲线
文章来源: 链接 引言 在 21 Must-Know Data Science Interview Questions and Answers 的文章中,有这类似这样的问题,它问的是Explain what precision and recall are. How do they relate to the ROC curve?关于这个问题其实有许多需要回答的,不仅仅是他们的表...转载 2019-01-23 23:36:20 · 265 阅读 · 0 评论 -
[面试、机器学习]关于交叉熵在loss函数中使用的理解
文章链接: 好文 关于交叉熵在loss函数中使用的理解交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用现成的库,用起来也比较方便。最近开始研究起对抗生成网络(GANs),用到了交叉熵,发现自己对交叉熵的理解有些模糊,不够深入。遂花了几天的时间从头梳理了一下相关知识点,才算透彻的理解...转载 2019-01-28 01:45:06 · 532 阅读 · 0 评论 -
[梯度下降]momentum 动量法
转载 2019-01-28 01:49:45 · 441 阅读 · 0 评论 -
[损失函数]Softmax求导
原文链接: https://blog.csdn.net/u014380165/article/details/79632950 我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对损失函数求梯...转载 2019-01-28 02:01:00 · 10475 阅读 · 0 评论 -
[softmax]softmax,softmax-loss,BP的解释
本文转载自:http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/ ,看完这个博客让我对softmax,softmax-loss以及BP算法有了更深的理解,以前BP只是知道链式求导,知道梯度回传,但是具体到哪些变量和哪...转载 2019-01-28 02:04:51 · 230 阅读 · 0 评论 -
[BP求导]BP反向传播理解
本文转自: 链接BP反向传播其实就是通过链式法则,从后往前一次计算出损失函数对所有参数的偏导,而前向求导的话每次只能求出某一个特定参数关于损失函数的导数。 十分钟看懂神经网络反向传输算法 昨天面试被问到如何推导BP(反向传输)算法,顿时蒙住了,大体是知道反向传输算法的过程的,但是用语言描述出来,确实有些困难。回来后看了些博文,发现有的博文中公式推导过于复杂...转载 2019-01-28 15:02:44 · 2047 阅读 · 2 评论 -
[CNN反向传播]CNN反向传播推导
原文链接:http://jermmy.xyz/2017/12/16/2017-12-16-cnn-back-propagation/转载 2019-01-28 15:41:27 · 736 阅读 · 0 评论