感知器与梯度下降(一)

本文介绍了梯度下降法在深度学习中的应用,通过比喻解释了梯度下降如何寻找误差最小化的路径。同时,讨论了感知器从离散型到连续型的转变,引入sigmoid函数使得感知器能够利用梯度下降进行优化。极大似然率和交叉熵作为评价模型好坏的指标,被用来衡量模型的误差。文章最后提到了误差函数与梯度下降之间的关系,并预告了接下来将推导梯度下降的公式。
摘要由CSDN通过智能技术生成

上一篇博客讲述了感知器分类的学习过程,想看文章详细请点击 深度学习-感知器是怎么学习分类的?这是基于离散型的感知器来分析的,就是说感知器的输出结果是1或者0,表示分类的结果,蓝色的分类代表1,红色的分类代表0,输出的结果只有0和1两种,对于感知器的学习过程,wx+b>0 则输出1,否则输出0。

今天我们来说一说梯度下降,如果将学习模型的误差函数比作是一座山,那么刚开始时候误差比较大,就好比人在山顶,想将误差的值逐步降下来,就想这个人想从山顶下山到山脚下,降低误差的学习过程就好像下山的过程。

那么上图中,人在山顶要下山,怎么才能以最快的速度下山呢?就需要他环顾四周看下他周围哪个方向下山的坡度最大,选择下降高度最大的方向下山,下一步之后然后再看看这时候哪个方向的下山坡度最大,选择坡度最大的方向再下一步,如此循环操作,直到到达山脚下位置,这个过程就是梯度下降的。

放到计算机学习的模型里,比如一个分类的模型,最开始时候随机生成了一条分隔线,此时的误差肯定是比较大的,如何调整曲线的方向和位置,使得误差值迅速变小,就可以采用上面梯度下降的思想,在数学的概念中,就是沿着误差函数的导数的反方向进行调整是最快的调整方式,这时候就要

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值