上一篇博客讲述了感知器分类的学习过程,想看文章详细请点击 深度学习-感知器是怎么学习分类的?这是基于离散型的感知器来分析的,就是说感知器的输出结果是1或者0,表示分类的结果,蓝色的分类代表1,红色的分类代表0,输出的结果只有0和1两种,对于感知器的学习过程,wx+b>0 则输出1,否则输出0。
今天我们来说一说梯度下降,如果将学习模型的误差函数比作是一座山,那么刚开始时候误差比较大,就好比人在山顶,想将误差的值逐步降下来,就想这个人想从山顶下山到山脚下,降低误差的学习过程就好像下山的过程。
那么上图中,人在山顶要下山,怎么才能以最快的速度下山呢?就需要他环顾四周看下他周围哪个方向下山的坡度最大,选择下降高度最大的方向下山,下一步之后然后再看看这时候哪个方向的下山坡度最大,选择坡度最大的方向再下一步,如此循环操作,直到到达山脚下位置,这个过程就是梯度下降的。
放到计算机学习的模型里,比如一个分类的模型,最开始时候随机生成了一条分隔线,此时的误差肯定是比较大的,如何调整曲线的方向和位置,使得误差值迅速变小,就可以采用上面梯度下降的思想,在数学的概念中,就是沿着误差函数的导数的反方向进行调整是最快的调整方式,这时候就要