自己学习机器学习,看到逻辑回归中梯度更新时,始终无法理解更新公式。那个看起来很莫名的公式长这样:
weights = weights + alpha * dataMatrix.transpose() * error
为什么要转置,为什么要用乘法将这个矩阵和差异向量相乘,下面就来详细讲讲吧。
首先,设样本集i行j列:
X=⎛⎝⎜⎜⎜⎜x11x21…xi1x12x22…xi2…………x1jx2j…xij⎞⎠⎟⎟⎟⎟ 对应结果标签 Y=⎛⎝⎜⎜⎜⎜y1y2…y
自己学习机器学习,看到逻辑回归中梯度更新时,始终无法理解更新公式。那个看起来很莫名的公式长这样:
weights = weights + alpha * dataMatrix.transpose() * error
为什么要转置,为什么要用乘法将这个矩阵和差异向量相乘,下面就来详细讲讲吧。
首先,设样本集i行j列:
X=⎛⎝⎜⎜⎜⎜x11x21…xi1x12x22…xi2…………x1jx2j…xij⎞⎠⎟⎟⎟⎟ 对应结果标签 Y=⎛⎝⎜⎜⎜⎜y1y2…y