1、本质上就是高等数学最基础的求极值,一阶梯度为0不一定是极值,还需要判断二阶梯度,就这么直接简单,大于0极大值,小于0极小值,等于0不确定可能大可能小,就是鞍点。
2、随机梯度下降就是用第一项去拟合曲线,这个是存在误差的,但是后面的海森矩阵计算复杂度太高了,所以这样近似相加比高。
3、剩下的就是线性代数的基本知识,特征向量和特征值。整个就是数学在人工智能领域的一个应用而已。
02-21
1276
“相关推荐”对你有帮助么?
-
非常没帮助
-
没帮助
-
一般
-
有帮助
-
非常有帮助
提交