- 博客(1)
- 收藏
- 关注
原创 ML
Gradient Descent feature scaling+mean normalization learning rate: small α\alphaα : slow convergence. large α\alphaα : may not decrease on every iteration and thus may not converge. To chose α\alpha...
2019-08-16 23:00:37 176
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人