![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 70
chenxaioxue
每个人都会有自己坚持的某种信念
展开
-
深度学习简介(一)
注:非原创,用于自我学习神经网络已经出现很多年,为什么最近广泛应用起来大数据 计算机能力的增强DL分类普通DL(全连接) 1-D序列模型(RNN,LSTM,GPU) 图像模型,2-D,3-D, CNN 其它类别:无监督学习,增强学习。趋势模型规模不断增大 端到端学习 (Rich output) 现在大多数机器学习算法只是输出一个值,但深度学习可以干更复杂的事,输出...转载 2018-08-07 15:39:40 · 391 阅读 · 0 评论 -
深度学习简介(二)
因最近在看《Deep Learning》Yann LeCun, YoshuaBengio, Geoffery Hinton本篇是前部分总结:ML(机器学习)对于AI(人工智能)的四个关键成分:1、大量的数据2、非常灵活的模型3、足够的计算能力4、强大的先验以至于可以战胜维度造成的原因我们需要建立ML模型的组合性——正如人类语言利用组合性来给予代表复杂思想的意义和含义...原创 2018-08-07 15:47:13 · 296 阅读 · 0 评论 -
深度学习简介(三)
分布式表示的优势学习一组不互斥的参数特征比具有最近邻类或簇状的模型的效率高。如下图所示:可无需看见其它大量的特征配置而发现每一个特征。深度学习:自动化特征发现Why does it work? No Free Lunch1.只有我们在对数据生成分布做一些假设时,它才有效。2.糟糕的分布仍需要大量数据。3.我们可以探索世界的一些结构来获得指数增长。4.具...翻译 2018-08-07 18:19:31 · 316 阅读 · 0 评论 -
ReLU激活函数
激活函数(Activation Function),就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。引入激活函数是为了增加神经网络模型的非线性。没有激活函数的每层都相当于矩阵相乘。就算你叠加了若干层之后,无非还是个矩阵相乘罢了。如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptro...原创 2018-09-02 17:38:38 · 16750 阅读 · 0 评论 -
神经网络の激活函数(Activation Function)
本博客仅为作者记录笔记之用,不免有很多细节不对之处。还望各位看官能够见谅,欢迎批评指正。更多相关博客请猛戳:http://blog.csdn.net/cyh_24如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50593400日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等...转载 2018-09-02 17:40:16 · 1385 阅读 · 0 评论 -
ANN
人工神经网络(Artificial Neural Network,简称ANN ),以数学模型模拟神经元活动,是基于模仿大脑神经网络结构和功能而建立的一种信息处理系统。由Minsley和Papert提出的多层前向神经元网络(也称多层感知器)是目前最为常用的网络结构。人工神经网络有多层和单层之分,每一层包含若干神经元,各神经元之间用带可变权重的有向弧连接,网络通过对已知信息的反复学习训练,通过逐步...原创 2018-09-02 21:16:40 · 1562 阅读 · 7 评论