视频听的李老师的视频,学习书是西瓜书。
这里只是把关键的知识(我认为)理一理;
loss function 的定义:有很多函数都可以作为loss function,不仅仅是均方误差(欧式距离);
使得loss function 最小化的过程:可以用梯度下降等方法进行求解,在这个过程重有很多的问题,我们需要考虑学习率的问题还有一些假点。(有时候经过多次迭代会停在local minima,不是global minima ,又可能只是斜率等于0)
对于我们选择的Modle 的好坏,通常是通过训练集和测试机的结果体现的,更多的依赖测试的结果。
(一个比较复杂的model并不一定总是在testing data上给我们比较好的performance,Overfitting就是model在training data上表现很好,在testing data上表现不好。)
出现了Overfitting可以考虑(训练的数据不够,是否有一些特征没有考虑)
写的比较简单,一些重要的思想,还是要多多的去看的。