- 博客(2)
- 收藏
- 关注
原创 吴恩达机器学习第二周
Hypothesis:Parameters:Cost Function:Goal:Gradient Descent:Repeat{(simultaneously updatefor j=0, 1, ... , n)}Feature Scaling:其中是平均值,是标准差(中心化、标准化)Learning Rate:通常可...
2019-06-05 18:13:45 280
原创 吴恩达机器学习第一周
Hypothesis:Parameters:Cost Function:Goal:Gradient Descent:repeat until convergence{}梯度下降的线性回归:Details:
2019-06-04 20:03:45 155
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人