![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
DeepLearning
one菜鸟inCV
一只误入CV界的菜鸟
展开
-
DeepLearning学习笔记之ReLU函数
一、什么是稀疏激活函数(ReLU)ReLU全称是Rectified Liner Uints,其具体形式为y=max(0,x)。 ReLU具有:1、单侧抑制;2、相对宽阔的兴奋边界;3、稀疏激活性等优点。二、为什么ReLU更有效? 生物研究表明:生物神经元只对输入信号中很少部分进行响应,大部分信号则被刻意屏蔽掉了。这样做可以更好的提高学习精度,更好更快的提取稀原创 2017-05-24 17:12:24 · 6958 阅读 · 0 评论 -
caffe各种脚本文件示例
caffe训练相关的脚本文件原创 2017-08-16 14:30:49 · 1256 阅读 · 0 评论