今天直到b站吴恩达的机器学习课看完前六章才发现自己一直没上机!!!!!这是一件不能被原谅的事情,于是我愤而点开我的matlab开始了人生中第一个梯度下降,然后就迎接了第一个bug🙂
由于引用的数据已经知道了长度,所以我图省事直接把m写成了数据量,来,接下来报我的bug
看下方两张代码的区别
我想,各位兄弟已经看出来了,对!!!就是学习率!!这导致了啥呢,见下面的图
第一张图对应0.4的学习率,第二张图对应0.01的学习率,很明显看出来第一张算出来的数据已经大到显示不出来了,第二张的数据还算正常,可能就像课上讲的那样跳出去了吧,唉😔
最后总结,课要好好听,实验要好好做,不要堆一起,不然前面学细节的很容易忘,效率低下,个人觉得看完一章就把那一章的算法代码这些好好做了可能比较好,及时训练嘛