ML实践-Adaptive Linear Neurons(Adaline)

这篇博客介绍了Adaptive Linear Neurons(Adaline)的原理,包括Cost Function(使用Sum of Square Errors,SSE)、梯度下降法以及特征缩放。Adaline的激活函数采用线性方程,不同于Perceptron的离散方程。在实现部分,讨论了权重更新和特征缩放的重要性,特别是如何通过标准化特征来防止overshoot。测试结果显示,适当调整学习率和特征缩放可以改进模型的性能。
摘要由CSDN通过智能技术生成

原理

在万事开头难那篇文中,介绍了一个初级的一层神经网,这是在最初级上面的follow up 版。
增强的点有:
1. Bernard新提出了cost function
2. weights的更新基于线性方程(linear activation function),而不是之前perceptron中的离散方程(unit step function)

这里写图片描述

Cost Function

Sum of Square Errors(SSE)
J(w)=12i(yi

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值