机器学习-笔记9-总结

 时间真快,10周的课程就已经结束了

十周,8个programming exercise,18个quiz,感谢

 看着长长地视频列表,心中有些小小的成就感,在此感谢coursera提供的课程,感谢Andrew教授的精彩课程,为我打开了机器学习这扇大门

 还是先简单说说最后一周的内容吧,首先是Large Scale Machine Learning ,即讲机器学习算法如何应对大量的数据,总结下来就是以下几点:

 1.Stochastic Gradient Descent

    随机的梯度下降算法,每次用一个样例进行梯度下降,虽然不会严格地趋近于最优值,但是会十分接近,以至于可以很好的应用于实际。

2.Mini-Batch Gradient Descent (6 min)

   介于Stochastic Gradient Descent和Batch Gradient Descent   之间的一个算法,即每次迭代时使用一部分样例进行计算,一般选择20-100,可以说上面两种算法就是特殊情况下的Mini-Batch Gradient Descent。

3.绘制以迭代次数为x轴的图像,以此来确定算法是否使用大量的数据进行更好的计算。

4.在线学习,即你有一个持续的样例来源,你可以只使用一次这个样例,参考许多网站的用户行为分析。

5.Map Reduce,其实是很重要的一个思想,大概就是云计算的思想,把计算分配到不同的计算机上进行整合。

最后给出了一个应用的样例,OCR (Optical Character Recognition),大概讲了一个项目的整合和分析,相当精彩。

课程总结和计划:

接下来准备学习PGM,可能赶不上课程的deadline,但是不会为了最后的分数而学习,看了第一周的课程,感觉还不错,不愧是斯坦福的。NNML就比较不行了,这个很难继续下去。另外买了《PRML》-影印版,原版太贵。。。,准备开始啃,加油!另外可以想想做点小东西,或者在http://www.kaggle.com/学习一下。

最后,真心感谢Andrew Ng.谢谢

 

本文出自 “DarkScope从这里开始(..” 博客,请务必保留此出处http://darkscope.blog.51cto.com/4254649/1030818

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值