machine learning
文章平均质量分 79
honyfrank
这个作者很懒,什么都没留下…
展开
-
随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
转自:http://blog.csdn.net/lilyth_lilyth/article/details/8973972梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代转载 2016-06-16 00:02:53 · 314 阅读 · 0 评论 -
Boosting算法简介
http://baidutech.blog.51cto.com/4114344/743809一、Boosting算法的发展历史 Boosting算法是一种把若干个分类器整合为一个分类器的方法,在boosting算法产生之前,还出现过两种比较重要的将多个分类器整合为一个分类器的方法,即boostrapping方法和bagging方法。我们先简要介绍一下bootstrapping方法和bag转载 2016-06-21 08:36:45 · 386 阅读 · 0 评论 -
卷积神经网络入门学(1)
原文地址:http://blog.csdn.net/hjimce/article/details/47323463卷积神经网络算法是n年前就有的算法,只是近年来因为深度学习相关算法为多层网络的训练提供了新方法,然后现在电脑的计算能力已非当年的那种计算水平,同时现在的训练数据很多,于是神经网络的相关算法又重新火了起来,因此卷积神经网络就又活了起来。在开始前,我们需要明确的是网上讲的卷转载 2016-09-28 15:23:29 · 336 阅读 · 0 评论 -
卷积神经网络入门学习(2.0)
原文地址:http://blog.csdn.net/hjimce/article/details/51761865转载 2016-09-28 15:33:05 · 182 阅读 · 0 评论