深度学习
文章平均质量分 92
_凡一
这个作者很懒,什么都没留下…
展开
-
深度学习之四 卷积神经网络进阶(alexnet)
深度学习之四 卷积神经网络进阶(alexnet) 为什么要有不同的网络结构? 不同的网络结构解决的问题不同。 不同的网络结构使用的技巧不同。 不同的网络结构应用的场景不同。 每次的dropout都是随机的,所以结果相当于是很多子网络的组合,在机器学习中模型组合一般是能提升最后的模型效果。 神经元之间的依赖关系被消除,就降低了过拟合的风险。过拟合是神经元记住了所有的数据,而一个神经元是记不住的,而是需要多个神经元去组合与配合。而dropout每次都去随机删掉一些神经元,使得神经元之间去组合原创 2020-07-15 16:07:23 · 215 阅读 · 0 评论 -
深度学习之三 卷积神经网络
深度学习 之三 卷积神经网络 1.问题引入。 普通的神经网络在处理图像时遇到的问题: 参数过多。 参数过多引来的问题有: ①.容易过拟合,导致模型的泛化能力非常差。 ②.收敛到较差的局部极值。 解决问题–卷积。 2.卷积。 对于一个图像数据来说,它具有非常强的区域性。基于这样的图像性质,我们可以做一定的筛减,将全连接变成局部连接,从而降低它的参数量。 ①.局部连接 由于图像的特征和它的位置无关,我们强制使得每一个神经元和局部连接都使用同样的参数,即参数共享。 ②.参数共享 卷积计算中还有一个重要的原创 2020-07-14 21:24:25 · 540 阅读 · 0 评论 -
深度学习之二 神经网络进阶
深度学习之二 神经网络进阶 1.神经元: 2.神经网络结构: 多个神经元组合在一起就会形成一个神经网络,下图是具有一个隐藏层的神经网络。 3.正向传播: 为了从数据中计算出它的预测值。 4.反向传播: 为了求解参数,是梯度下降算法在神经网络上的具体的计算过程。 如上图:如果给定了损失函数,我们可以直接运用梯度下降法(对损失函数求偏导)求出W3的值,那么对于W1和W2如何计算损失函数对于它们的导数呢? 答案是用链式法则: 5.神经网络训练优化: 以上是反向传播的概念,它是帮助神经网络去求解所有参数的原创 2020-07-14 11:38:56 · 251 阅读 · 0 评论 -
深度学习之一 神经网络入门
深度学习之神经网络(CNN/RNN/GAN)算法原理 之一 神经网络入门 1.神经元–逻辑斯底回归模型: 2.神经元多输出: 以上是二分类的逻辑斯蒂回归模型,那么如果我们想要多分类的逻辑斯蒂回归模型,应该怎么做呢?显然我们在有一个神经单元的时候我们可以做二分类的逻辑斯蒂回归模型,我们想要多分类,只需加神经元。如下图所示,多加了一个神经元,就可以得到两个输出,可以去做三分类的逻辑斯蒂回归模型。因为:输出一个值的时候,比如值是a,我们认为a是某个类的概率,那么1-a就是另一个类的概率,所以输出一个值的原创 2020-07-10 08:42:30 · 172 阅读 · 0 评论