![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
Planes_Walker
这个作者很懒,什么都没留下…
展开
-
对张量tensor的一些理解
对张量tensor 的一些理解我们知道经常用于神经网络的TensorFlow ,但是没想过Tensor是什么意思,今天我们就来小小的探究一下。下面的理解有些不一定对,很多都是从概念层面考虑的,就当时对张量这个概念的小探究。张量的基本概念:组件 component 组成张量的基本成分基 basic vectors 构成组件的基本向量张量的阶 rank 表...原创 2020-04-30 23:00:45 · 460 阅读 · 0 评论 -
Softmax激活函数 以及 多分类问题的推导
Softmax激活函数函数:Softmax激活函数用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类!某个神经元的输出的值i ,则经过SoftMax函数的输出为Si,公式为:示意图如下:SoftMax的损失函数,以及下降方法:要使用梯度下降,肯定需要一个损失函数,这里我们使用交叉熵作为我们的损失函数。也就是最小化训...原创 2020-04-18 18:34:18 · 1930 阅读 · 0 评论 -
极大似然估计的理解 为什么要取似然函数最大值 似然函数的意义是什么?
对极大似然估计的理解极大似然估计的形式:1.离散型统计模型表示观测值。2.连续型统计模型自己的理解:似然函数的形式是理论上各事件(这个事件表示一个采样一个样本,每个样本有不同的分类)的发生概率。现在发生了的某个事件,似然函数就变成了这个样本的理论概率,而现在的采样结果代表某个事件已经确定发生了,那这个事发生的理论概率应该尽量大(在这个事件发生的理论概率中...原创 2020-04-17 17:00:48 · 7680 阅读 · 2 评论 -
从概率密度函数角度理解Sigmoid与SoftMax函数
概率密度函数随机变量:随机变量是取值有多种可能并且取每个值都有一个概率的变量。分为离散型与连续型。离散型随机变量:取值为有限个或者无限可列个(无限可列是指可以对变量进行编号,整数集是典型的无限可列)。描述离散型随机变量的概率分布的工具是概率分布表,它由随机变量取每个值的概率p(x = xi )= pi依次排列组成。它满足:所以在某些情况下,可以假定一个分布,...原创 2020-04-15 21:00:09 · 1593 阅读 · 0 评论 -
贝叶斯决策论理解
贝叶斯判别规则是以错分概率或风险最小为准则的判别规则,这两种的策略是不同的。1. 贝叶斯决策的错分概率两分类问题的情况下,贝叶斯分类是一定是最小错分概率的。因为分类就两种,也就是不是P(A|B)不是正确的就是错误的,没有第三种可能,所以根据贝叶斯公式选择最大概率max{ P(A|B), P(~A|B)}的结果P,因为我总会选那个概率最大的,概率和为1的情况下,剩下的自然是小的。举例:下...原创 2020-04-13 22:10:06 · 1188 阅读 · 0 评论