学习方法
山抹微云654
计算机数据挖掘、NN、AI、NLP
展开
-
随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
转自:http://blog.csdn.net/lilyth_lilyth/article/details/8973972 梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。 下面的h(x)是要拟合的函数,J(theta)损失函数,theta是转载 2015-08-18 15:47:27 · 332 阅读 · 0 评论 -
隐马尔可夫模型(HMM)攻略
转自:http://blog.csdn.net/likelet/article/details/7056068 隐马尔可夫模型 (Hidden Markov Model,HMM) 最初由 L. E. Baum 和其它一些学者发表在一系列的统计学论文中,随后在语言识别,自然语言处理以及生物信息等领域体现了很大的价值。平时,经常能接触到涉及 HMM 的相关文章,一直没有仔细研究过,都是蜻蜓点转载 2015-10-15 16:25:22 · 563 阅读 · 0 评论 -
个人阅读的Deep Learning方向的paper整理
转自:http://blog.csdn.net/sunmenggmail/article/details/20904867 http://hi.baidu.com/chb_seaok/item/6307c0d0363170e73cc2cb65 个人阅读的Deep Learning方向的paper整理,分了几部分吧,但有些部分是有交叉或者内容重叠,也不必纠结于这属于DNN转载 2015-10-15 16:36:10 · 668 阅读 · 0 评论