- 博客(3)
- 收藏
- 关注
原创 DataWhale_李宏毅深度学习笔记_Task 03:误差从哪里来&梯度下降
误差从哪里来?误差主要来自两个方面一个是bias,另一个是variance:(1)Bias是通过多次训练得到的最优值的平均值与真正的最优值的距离,可以反应是否瞄准了靶心,如图1中第1、2幅图的bias比第3、4幅图小;(2)Variance是通过多次训练得到的最优值的方差,可以反应射击点的分散程度,如图1中第2、4幅图的variance大,第1、3幅图的variance小。图 1Bais和Variance都是越小越好,通常情况下,模型越简单,variance越小,bias越大,模..
2021-08-20 22:25:34
83
原创 DataWhale_李宏毅深度学习笔记_Task 02:Regression
这节课主要讲的是Regression,进行Regression主要包括以下几个步骤:首先是构建一个模型;然后,定义损失函数进行模型评价;最后,根据损失函数值,获得最优模型。获取最优模型的一种有效方法是梯度下降算法gradient descent,通过求微分不断更新参数值,以寻早到模型的最佳参数,如图1。但针对非凸优化问题,采用gradient descent容易陷入局部最优,如图2。图 1图 2当模型表现不好的时候,可以通过以下两种方法来提高模型准确率:(1)修改模型:设计更..
2021-08-17 17:22:46
120
原创 DataWhale_李宏毅深度学习笔记_Task01_机器学习介绍
如图1,针对人工智能的研究可以追溯到20世纪50年代,人们希望机器可以像人一样聪明,但在当时这只是一个美好的愿景,在很长的一段时间内,人们并不知道怎么做到人工智能这件事。直到1980年代,才有了机器学习的方法,即让机器具有学习的能力,是实现人工智能的一种手段。到了2010年代,又出现了深度学习,深度学习是机器学习的一种方法。由此可知,人工智能是我们的目标,机器学习是实现目标的一种手段,深度学习是机器学习的一种方法。图 1在有机器学习、深度学习之前,实现人工智能是通过预设很多规则,比如给.
2021-08-16 14:36:42
132
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人