一、原理
公式:
Hypothesis:
这里:
Parameters:
Cost Function:
使用的是平方误差
梯度下降:用于最小化代价函数,一般用代价函数对求偏导获得。
Gradient descent:
Repeat{
}
即
Repeat{
公式:
Hypothesis:
这里:
Parameters:
Cost Function:
使用的是平方误差
梯度下降:用于最小化代价函数,一般用代价函数对求偏导获得。
Gradient descent:
Repeat{
}
即
Repeat{