向量微积分基础

本文介绍了向量微积分在机器学习中的基本概念,包括分子布局和分母布局的区别,以及雅可比矩阵的定义。还列出了一些常用的求导公式,如矩阵乘法的导数和链式法则在向量函数中的应用,对于理解和应用机器学习中的数学推导有所帮助。
摘要由CSDN通过智能技术生成

本文首发在我的个人博客:https://jlice.top/p/7kemt/。欢迎大家前去参观,么么哒~

机器学习里经常需要用到向量微积分。向量微积分其实并不难,但大学数学一般不提,导致在看机器学习的一些推导时常常感觉疑惑。

机器学习里经常用到标量和向量、向量和向量的求导,其实只是把向量对应位置的元素进行求导。但是,这些元素的组织方式有两种,分别是分子布局和分母布局,二者并无本质上的差别,只是结果相差个转置。这两种布局都存在,初学者常常混淆。

例如求\(\frac {\partial \mathbf{y}} {\partial x}\),其中\(\mathbf{y}\)是\(n\)维列向量,\(x\)是标量。这个求导就是把\(\mathbf{y}\)里每个元素分别对\(x\)求导,但求导后是得到列向量还是行向量呢?

对于分子布局:

\[ \frac {\partial \mathbf{y}} {\partial x} = \begin{bmatrix} \frac {\partial y_1} {\partial x} \\ \frac {\partial y_2} {\partial x} \\ \vdots \\ \frac {\partial y_n} {\partial x} \\ \end{bmatrix} \]

对于分母布局:

\[ \frac {\partial \mathbf{y}} {\partial x} = \begin{bmatrix} \frac {\partial y_1} {\partial x} & \frac {\partial y_2} {\partial x} & \dots &

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值