- 博客(3)
- 收藏
- 关注
原创 特征缩放的核心概念
即使学习率αα相同,θ收入θ收入的更新幅度会远大于θ年龄θ年龄,导致模型过度依赖收入特征。未缩放时,损失函数的等高线(等值线)是拉长的椭圆形(如下图左),梯度下降会反复震荡,收敛缓慢。∂J(θ)∂θj∂θj∂J(θ):损失函数对参数θjθj的偏导数(梯度方向)。:防止数值大的特征“嗓门大”,主导模型计算(如收入数值远大于年龄)。收入对应的参数θ收入θ收入的梯度远大于年龄对应的θ年龄θ年龄。,对应的梯度值也会更大,导致θjθj的更新步长过大。:所有特征的梯度处于相似范围,参数更新步长均衡。
2025-02-01 22:30:23
1455
原创 机器学习中的梯度下降算法
**山的地形** = 模型的**损失函数**(Loss Function),衡量预测值与真实值的差距。- **你(盲人)** = 模型的**参数**(如权重 `w` 和偏置 `b`),需调整参数来降低损失。- **比喻**:你是一个盲人,站在山上,目标是找到山谷的最低点(即损失函数的最小值)。- **定义**:梯度是一个向量,指向当前点**坡度最陡的方向**(即下坡最快的方向)。- **结果**:通过迭代调整 `w` 和 `b`,预测值逐渐逼近真实房价。
2025-01-30 18:44:18
573
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅