![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习-神经网络
日有所进
这个作者很懒,什么都没留下…
展开
-
机器学习--神经网络算法系列--激活函数
原文地址:http://blog.csdn.net/cyh_24/article/details/50593400 神经转载 2017-07-03 08:00:13 · 564 阅读 · 0 评论 -
ReLu(Rectified Linear Units)激活函数
ReLu(Rectified Linear Units)激活函数起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统Sigmoid系激活函数传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很转载 2017-06-25 20:10:32 · 1082 阅读 · 0 评论 -
你应该知道的9篇深度学习论文(CNNs 理解)
本文主要总结了卷积神经网络在机器视觉领域的重要发展及其应用。我们将介绍几篇重要的公开发表的论文,讨论它们为何重要。前一半的论文(AlexNet到ResNet)将主要涉及整体系统架构的发展和演变,后一半论文将主要集中在一些有趣的子领域应用上。转载 2017-07-05 10:18:44 · 578 阅读 · 0 评论 -
循环神经网络(RNN, Recurrent Neural Networks)介绍
循环神经网络(RNN, Recurrent Neural Networks)介绍 这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/,在这篇文章中,加入了一些新的内容与一些自己的理解。 循环神经网络(Recurrent Neural N转载 2017-07-14 08:29:18 · 862 阅读 · 0 评论 -
机器学习--神经网络算法系列--交叉熵(Cross_entropy)
原文:http://blog.csdn.net/u014313009/article/details/51043064 交叉熵代价函数(Cross-entropy cost function)是用来衡量人工神经网络(ANN)的预测值与实际值的一种方式。与二次代价函数相比,它能更有效地促进ANN的训练。在介绍交叉熵代价函数之前,本文先简要介绍二次代价函数,以及其存在的不足。1. 二次代转载 2017-06-27 22:14:04 · 7369 阅读 · 1 评论 -
机器学习--神经网络算法系列--过拟合(overfitting)
只愿这次贴的图片不会丢失。。。 机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上表现良好。在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。1、概念 通常情况下,当我们训练机器学习模型时,我们可以使用某个训练集,在训练集上计算一些被称为 训练误差(training error)的度量误差原创 2017-06-28 08:29:35 · 1898 阅读 · 0 评论 -
机器学习--神经网络算法系列--卷积神经网络
转载自:http://www.jiqizhixin.com/article/1363?utm_source=tuicool&utm_medium=referral这是一篇向初学者讲解卷积神经网络的系列文章,机器之心编译了已经发表了的 Part 1 和 Part 2。此系列文章若有更新,机器之心依然会分享给大家。 Part 1:图像识别任务介绍卷积神经网络,听起来像是计算机科学、生物学和数转载 2017-06-28 15:28:34 · 2724 阅读 · 0 评论