- 博客(3)
- 收藏
- 关注
原创 神经网络Loss损失函数总结
这篇博文总结一下损失函数,这里重点总结一下常用的损失函数。softamx cross entropy losssoftmax 交叉熵损失函数是我们常用的一种损失函数,其公式如下: E(t,y)=−∑jtjlogyj E(t, y)=-\sum_j t_j \log y_j 其中,t 和 y 分别表示神经网络的目标标签和输出, yjy_j 表示softmax损失函数: yj=s
2017-06-25 14:17:21 62409 3
转载 Git 进阶技巧
主要来自github,另外自己在后面加上了收集的部分,方面自己以后查阅或者别人查阅。 来自 github 项目(https://github.com/xhacker/GitProTips/blob/master/zh_CN.md)Git 进阶技巧本文尚未完成。本文不适用于初学者,适合了解 Git 的基本使用,知道 commit、push、pull,希望掌握 Git 更多功能的人阅读。你可以以任何顺
2017-06-19 14:53:39 3157
翻译 神经网络激活函数比较
最近需要调参数,搜到一篇论文详细比较了目前主要的激活函数,写的挺详细的。主要比较了ReLU,Leaky ReLU, Randomized Leaky ReLU(PReLU),写的挺详细的。ReLu:Leaky ReLU:lambda 通常在(0,1)开区间。Randomized Leaky ReLU(PReLU):最后给出一张对比图:
2017-06-08 12:09:01 1171
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人