- 博客(1)
- 资源 (2)
- 收藏
- 关注
原创 【Machine Learning实验1】batch gradient descent(批量梯度下降) 和 stochastic gradient descent(随机梯度下降)
批量梯度下降是一种对参数的update进行累积,然后批量更新的一种方式。用于在已知整个训练集时的一种训练方式,但对于大规模数据并不合适。 随机梯度下降是一种对参数随着样本训练,一个一个的及时update的方式。常用于大规模训练集,当往往容易收敛到局部最优解。 详细参见:Andrew Ng 的Machine Learning的课件(见参考1) 可能存在的改进 1)样本可靠度,特征完备性的
2011-11-21 23:43:44 24331 14
Topology-Calculation-Tuning本学期一份组内报告
这是一个在组内做的技术报告,从技术的观点,介绍了布局,计算和调优的工作,这些工作是一个工程师的必修课,这里以点带面的进行了展开,是为了表明,编代码不是盲目的写,而是要有计划,有层次,有把握地去写,我水平有限,这些只是自己的思考,因为我还刚上路呢。。。
2011-01-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人