深度学习
文章平均质量分 94
从入门到精通、从整体到模块的方式,深度解析深度学习的相关理论与实战应用,并结合流行框架tensorflow进行开发讲解以及在图片识别领域的成功运用案例
阿童木-atom
行到水穷处,坐看云起时!
鄙人学富五车、才高八斗。技术能力称雄天下,敢领风骚数五百年。java、scala、python、C/C++、php登峰造极,精通Spring、mybatis、hibernate、struts2各种框架及具备各种大型系统架构能力,深耕搜索、推荐、数据挖掘、机器学习、深度学习、人工智能等领域,通读lucene、solr、elaticsearch、sphinx、mahout、tensorfolw等开源项目源码,精通hadoop、hbase、hive、spark、kafka、rabbit、activeMQ等大数据处理工具的应用。
展开
-
一文彻底搞懂看似高深莫测的人工智能
欢迎关注鄙人公众号,技术干货随时看! 现在的互联网领域张口机器学习,闭口神经网络,三句不离深度学习(Oh,oh,oh!AI、DeepLearning更容易把人唬住。),外行人或甚至干了十多年的资深开发人员都会觉得触不可及,可能的原因大概是对人工智能认知的问题,大部分人都以为人工智能是指计算机真的像科幻片似的具有了像人类一样的思维意识,其实不然,而且永远也不会实现,读完本文对人工智能误解就会得...原创 2019-12-12 09:19:43 · 2320 阅读 · 3 评论 -
tensolrflow中get_variable和tf.Variable区别
先来看下二者的定义: Variable:必须给定的参数只有一个initial_value,如果名字没指定会自己生成一个Variable:0类似于此 def __init__(self, initial_value=None, trainable=True, collections=None...原创 2018-06-04 18:00:49 · 15401 阅读 · 0 评论 -
深度学习第一讲之深度学习基础
深度学习第一讲之深度学习基础转载请注明出处! 本篇博文从what、why、when、who、where、how五个方面来分析深度学习,接下来讲如何入门,我门将通过介绍实际案例来讲解深度学习的实际应用,一下篇博文讲解深度学习的核心技术:卷积神经网络WHAT?什么是深度学习?维基百科: 深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变...原创 2018-04-03 10:56:15 · 18431 阅读 · 1 评论 -
深度学习第二讲之卷积神经网络
转载请注明出处 本文引用了TensorFlow实战的部分内容,如果涉及版权问题,请您联系本人,本人将立即删除。610417806@qq.com机器学习的本质 机器学习的本质,可以用上图来概括。深度学习是机器学习的一个分支,更准确得说是机器学习一种新的实现技术。机器学习就是寻找一个函数,这个函数可以根据输入给出输出即预测值,分类、回归、推荐等所有的机器学习都是为了找到一个函数。如...原创 2018-04-03 14:14:25 · 17936 阅读 · 2 评论 -
深度学习第三讲之防止过拟合提高模型泛化能力
转载请注明出处 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程,网络在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却不work。常见的防止模型过似合的方法有DropOut和正则化,两者中最常用的是后者,te...原创 2018-04-27 15:15:11 · 25906 阅读 · 0 评论 -
深度学习第四讲之特征缩放
转载请注明出处什么是特征缩放 特征缩放其实就是标准化数据特征的范围。 为什么要进行特征缩放 特征缩放可以使得ML方法工作的更好,比如在k-nn的算法中,分类器主要是计算两点之间的欧几里得距离,如果一个feature比其他另外一个feature大超过一个数量级的情况下,那么两者之间的距离就会更大的偏向于这个feature。因此,我们必须对每个feature都进行归一化,...原创 2018-04-27 15:36:18 · 17072 阅读 · 0 评论 -
深度学习第五讲之池化层(Pooling layer)
转载请注明出处 在卷积神经网络中,卷积层之间往往会加上一个池化层。池化层可以非常有效地缩小参数矩阵的尺寸,从而减少最后全连层中的参数数量。使用池化层即可以加快计算速度也有防止过拟合的作用。 在图像识别领域,有时图像太大,我们需要减少训练参数的数量,它被要求在随后的卷积层之间周期性地引进池化层。池化的唯一目的是减少图像的空间大小。池化在每一个纵深维度上独自完成,因此图像的纵深保持不变。池...原创 2018-04-27 15:56:39 · 42478 阅读 · 1 评论 -
深度学习第六讲之批标准化(Batch Normalization)
转载请注明出处batch 是批数据, 把数据分成小批小批进行 stochastic gradient descent. 而且在每批数据进行前向传递 forward propagation 的时候, 对每一层都进行 normalization 的处理在一定范围内,一般来说Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。盲目增大 Batch_Size 有何好处与坏处...原创 2018-04-27 16:31:00 · 16481 阅读 · 0 评论