深度学习--数学基础知识介绍

本文介绍了深度学习所需的基础数学知识,包括梯度、雅可比矩阵、Hessian矩阵及其在极值点判定中的应用。还探讨了一元和多元函数的泰勒展开,并简要说明了梯度下降法如何利用一阶泰勒展开寻找函数极小值。
摘要由CSDN通过智能技术生成

这篇文章主要用来介绍深度学习涉及到的相关数学知识,算是一个知识储备。

1. 基本概念

1.1 梯度

多元函数的梯度是函数对各个变量求偏导数后形成的向量,记多元函数为 f ( x 1 , x 2 , … , x n ) f(x_1,x_2,\ldots,x_n) f(x1,x2,,xn),则该函数的梯度为

∇ f ( x ) = [ ∂ f ∂ x 2 , ∂ f ∂ x 2 , … , ∂ f ∂ x n − 1 , ∂ f ∂ x n ] \nabla f(x) = \begin{bmatrix} { \frac{\partial f}{\partial x_2} }, { \frac{\partial f}{\partial x_2} }, \ldots, { \frac{\partial f}{\partial x_{n-1}} }, { \frac{\partial f}{\partial x_n} } \end{bmatrix} f(x)=[x2f,x2f,,xn1f,xnf]

1.2 雅可比矩阵

设有向量 x ⃗ \vec{x} x y ⃗ \vec{y} y ,且有 x ⃗ ∈ R n \vec{x} \in R^n x Rn, y ⃗ ∈ R m \vec{y}\in R^m y Rm,即 y i = f ( x i ) y_i=f(x_i) yi=f(xi)。那么雅可比矩阵就是输出向量的每个分量对输入向量的每个分量求偏导后形成的矩阵。
J = [ ∂ y 1 ∂ x 1 ∂ y 1 ∂ x 2 ⋯ ∂ y 1 ∂ x n ∂ y 2 ∂ x 1 ∂ y 2 ∂ x 2 ⋯ ∂ y 2 ∂ x n ⋮ ⋮ ⋱ ⋮ ∂ y m ∂ x 1 ∂ y m ∂ x 2 ⋯ ∂ y m ∂ x n ] J= \begin{bmatrix} { \frac{\partial y_1}{\partial x_1} } & { \frac{\partial y_1}{\partial x_2} } & \cdots & { \frac{\partial y_1}{\partial x_n} } \\ { \frac{\partial y_2}{\partial x_1} } & { \frac{\partial y_2}{\partial x_2} } & \cdots & { \frac{\partial y_2}{\partial x_n} } \\ \vdots & \vdots & \ddots & \vdots \\ { \frac{\partial y_m}{\partial x_1} } & { \frac{\partial y_m}{\partial x_2} } & \cdots & { \frac{\partial y_m}{\partial x_n} } \\ \end{bmatrix} J=x1y1x1y2x1ymx2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值