![105ee916c873e88f9a860d1074b32220.png](https://i-blog.csdnimg.cn/blog_migrate/abf588b400a6e1bb99673c2b7ac73e9a.png)
梯度
如果我们把导数理解为微小变化引起的变化:
![88f56421e0e83b2ac0201c3367e923a2.png](https://i-blog.csdnimg.cn/blog_migrate/071625ca874a8c3f810d23c50f4cee52.png)
泰勒级数如下:
![10e43b642d9d8b6b6bd75c85f1258084.png](https://i-blog.csdnimg.cn/blog_migrate/25fd95fea896d2cf9ed787ac1dcf6a09.jpeg)
经常因为计算的原因我们可以利用线性的部分来做近似:
这也 make sense,相当于我们找到
这种思路对于具有多变量的函数应当也是适用的,比如空间中的曲面f(x,y):
![0c6f11afc637525f02eb35ca53f6e38f.png](https://i-blog.csdnimg.cn/blog_migrate/ceb13ab8e12d7fd56f13e0b8d882608a.jpeg)
对于这样的曲面,我们如果想要在
(切平面的方程可以通过找到x方向与y方向的切线,然后cross product得到法向量来证明。)
非常重要的是,上面这个式子同时也某种程度上回应了偏导数的本质,就是我们看x变量(方向)上的微小变化引起的变化,再加上y变量(方向)的微小变化引起的变化,就是总的变化。即使维度增加,线性模拟的式子应该也是类似的,比如函数 f(x,y,z) 在 (a,b,c) 处的线性近似应该是:
这也帮我们自然而然的引出了梯度(gradient)的概念: