- 博客(5)
- 收藏
- 关注
原创 【Task04:如何加快梯度下降速率】
【Task04:如何加快梯度下降速率】1.1调整学习速率learning rate不能过大或过小,一般需要合适的学习速率自动调整学习速率,设置一个学习速率的函数,例如Adagrad自动调整方法,使得不同参数的学习速率都不同。推导过程如下因此学习速率实际变成了找最佳步长(也就是学习速率和梯度相乘的值):一次微分的绝对值/二次微分值(,二次微分用一次微分表示,可以减少计算量)1.2 随机梯度下降(使得数据训练更快)算某一个例子的loss值,不算所有例子的loss值1.3 featu
2022-01-14 20:26:51 1428
原创 【Task03:误差从哪来】
【Task03:误差从哪来】err来源于bias,另一种来源于variance误差来源,第一个是你找出的最好的模型的平均值离理想最优模型之间的距离,这个称为bias,另一个则是你找的每一个最好的模型离平均值之间的距离,这个称为variance。主要是这两个方面。所以bias和variance两两组合,会出现低bias低variance,低bias高variance,高bias低variance以及高bias高variance。但为什么会出现很多个f*,可以平行做n个平行实验,每一个实验都找一个f*
2022-01-14 20:15:56 1644
原创 【无标题】
李宏毅机器学习课程笔记【Task01:机器学习介绍】kaggle应用(http://www.kaggle.com/),作业一、应用场景:1.1语音识别1.2图像识别二、功能2.1回归:输出一个数值2.2分类:准备好类别(准备的选项不止一类),输出为类别的一类类似于go围棋评估下一步放在哪个位置(每个没有落子的位置都是选项)2.3结构学习(structure learning):输出有结构化的对象(创造文章、图片等)三、机器如何找function(训练数据)3.1第一步:先猜测
2022-01-10 22:42:59 229
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人