【学习记录】python自适应线性神经元Adaline

相关重点

自适应神经元与感知机的主要区别是多了一个激活函数

梯度下降背后的逻辑:
走下坡路直到抵达局部或者全部代价最小为止
权重变化 定义为 负的梯度 乘 学习率

批量梯度下降:
权重更新是基于训练数据集中所有样本进行计算的,而不是在每个样本之后逐步计算的

感知机是每次训练完模型都要更新权重

学习率的选择
太小 则要经过多次迭代才能收敛到全局最低代价
太大 则会错过全局最小值

用特征缩放改善梯度下降

随机梯度下降(SGD)
对于海量数据,运行批量梯度下降的代价很大,因为向全局最小值走一步,都需要重新评估整个训练数据集
所以用随机梯度下降代替批量梯度下降

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值