自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 神经网络Loss损失函数总结

这篇博文总结一下损失函数,这里重点总结一下常用的损失函数。softamx cross entropy losssoftmax 交叉熵损失函数是我们常用的一种损失函数,其公式如下: E(t,y)=−∑jtjlogyj E(t, y)=-\sum_j t_j \log y_j 其中,t 和 y 分别表示神经网络的目标标签和输出, yjy_j 表示softmax损失函数: yj=s

2017-06-25 14:17:21 62409 3

转载 Git 进阶技巧

主要来自github,另外自己在后面加上了收集的部分,方面自己以后查阅或者别人查阅。 来自 github 项目(https://github.com/xhacker/GitProTips/blob/master/zh_CN.md)Git 进阶技巧本文尚未完成。本文不适用于初学者,适合了解 Git 的基本使用,知道 commit、push、pull,希望掌握 Git 更多功能的人阅读。你可以以任何顺

2017-06-19 14:53:39 3157

翻译 神经网络激活函数比较

最近需要调参数,搜到一篇论文详细比较了目前主要的激活函数,写的挺详细的。主要比较了ReLU,Leaky ReLU, Randomized Leaky ReLU(PReLU),写的挺详细的。ReLu:Leaky ReLU:lambda 通常在(0,1)开区间。Randomized Leaky ReLU(PReLU):最后给出一张对比图:

2017-06-08 12:09:01 1171

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除