自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

喵喵

logic & love

  • 博客(3)
  • 收藏
  • 关注

原创 神经网络之损失函数

对于损失函数一直处于混乱理解的状态,L2=1/2 ||a-y||^2 ,对于其他的类似于交叉信息熵感觉很高大上的样子,但是到底是怎么回事呢?今天我就一探究竟!我们都知道,神经网络模型训练得以实现是经过前向传播计算LOSS,根据LOSS的值进行反向推到,进行相关参数的调整。可见,LOSS是指导参数进行调整的方向性的指导,很关键,正如在梯度下降中看到的图一样,如果LOSS随意指示下降的方向,那么可能无论

2017-04-27 11:56:31 17045 1

原创 深度学习之模型finetuning

深度学习 finetuning 模型

2017-04-26 23:21:02 15110

原创 激活函数的区别优缺点对比

Sigmoidsigmoid非线性激活函数的公式是,如上上图左。之前的章节提过,它将实数压缩到0 1 区间。而且,大的负数变成0,大的正数变成1。sigmoid函数由于其强大的解释力,在历史上被最经常地用来表示神经元的活跃度:从不活跃(0)到假设上最大的(1)。在实践中,sigmoid函数最近从受欢迎到不受欢迎,很少再被使用。它有两个主要缺点: 1.sigmoid过饱和、丢失了梯度。sigmoid

2017-04-11 17:30:41 9707 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除