深度学习
文章平均质量分 74
雜貨鋪老闆
这个作者很懒,什么都没留下…
展开
-
sigmoid和softmax总结
sigmoid函数(也叫逻辑斯谛函数): 引用wiki百科的定义: A logistic function or logistic curve is a common “S” shape (sigmoid curve). 其实逻辑斯谛函数也就是经常说的sigmoid函数,它的几何形状也就是一条sigmoid曲线。 logistic曲线如下: 同样,我们贴一下转载 2017-04-11 16:19:24 · 691 阅读 · 0 评论 -
深度学习常用激活函数之— Sigmoid & ReLU & Softmax
1. 激活函数Rectified Linear Unit(ReLU) - 用于隐层神经元输出Sigmoid - 用于隐层神经元输出Softmax - 用于多分类神经网络输出Linear - 用于回归神经网络输出(或二分类问题) ReLU函数计算如下: Sigmoid函数计算如下:转载 2017-04-11 16:33:02 · 5494 阅读 · 0 评论 -
神经网络
神经网络Contents1概述2神经网络模型3中英文对照4中文译者概述以监督学习为例,假设我们有训练样本集 ,那么神经网络算法能够提供一种复杂且非线性的假设模型 ,它具有参数 ,可以以此参数来拟合我们的数据。为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“转载 2017-04-11 16:47:36 · 1828 阅读 · 0 评论 -
神经网络五:常用的激活函数
本文就现在神经网络中主要的几个激活函数进行分析和讲解,比较几个激活函数的优缺点。在此特声明,本文的内容是来自:CS231n课程笔记翻译:神经网络笔记1(上) - 智能单元 - 知乎专栏。因本人有时会查阅这些相关的知识点,一直翻文档比较麻烦,特从文档中摘录复制写到博客中,其中的艰辛也是有的,希望对广大参阅者也有帮助。每个激活函数(或非线性函数)的输入都是一个数字,然后对其进行某种固定的数转载 2017-04-11 17:23:25 · 3227 阅读 · 0 评论