机器学习数学基础
程序猿的探索之路
走好人生中的每一步路!
展开
-
【笔记】复数:复数生活在二维复平面,拥有更大的自由度,在复数域中解决一些问题会更加简单、更接近本质
上面动画的出处是这里。 如何直观地理解傅立叶变换? 如何理解傅立叶级数公式? 从傅立叶级数到傅立叶变换 ...转载 2021-12-26 09:38:34 · 321 阅读 · 0 评论 -
函数可导和可微的区别: 一元中互为充要;多元中可微是可导的必要条件,可导不一定可微。
答案:资料1:资料2:资料3:原创 2021-05-14 16:55:51 · 2633 阅读 · 0 评论 -
Hadamard product 和 矩阵乘积
1. Hadamard product定义:实现:2. 矩阵乘积定义:实现:原创 2021-05-11 15:53:21 · 325 阅读 · 0 评论 -
正态分布、期望和均值的区别、有偏和无偏估计量(方差)的理解
综合资料一二三,分析(有偏和无偏估计量)方差。资料一:资料二:资料三:资料四:分析: 此处包含方差的一个公式,方差 = 平方的期望 - 期望的平方...原创 2021-05-07 10:34:39 · 21975 阅读 · 0 评论 -
卷积神经网络反向传播过程
我导讲的比吴恩达好得多啊!崇拜原创 2021-04-14 22:43:00 · 404 阅读 · 0 评论 -
若数学中的log没有指出底数,那是否其底数默认为10?比如logN等价于log(10)N?
答:是的,一般是这样,logN又记作lgN,省略底数的有:1.以10为底数,记作lgx2.以e为底数,记作lnx原创 2020-11-27 12:16:14 · 21241 阅读 · 0 评论 -
神经网络中w,b参数的作用(为何需要偏置b的解释)
其中w参数的作用,是决定那个分割平面的方向所在.其中b参数的作用,是决定竖直平面沿着垂直于直线方向移动的距离https://blog.csdn.net/xwd18280820053/article/details/70681750转载 2021-03-15 16:44:41 · 489 阅读 · 0 评论 -
反向传播之矩阵求导dL/dz1的求导过程 普通神经网络的逆向求导过程
全都是那神的功劳,辅导我将反向传播dL/dz1推导了一遍。那神威武,祝愿那神考上清北的研究生!原创 2020-12-16 17:07:00 · 772 阅读 · 0 评论 -
矩阵求导的本质与分子布局、分母布局的本质(矩阵求导——本质篇)
写的很不错https://zhuanlan.zhihu.com/p/263777564?utm_source=ZHShareTargetIDMore原创 2020-12-09 19:13:13 · 1025 阅读 · 0 评论 -
导数和全微分的区别
导数:eg:向量变元的实值标量函数全微分:eg:向量变元的实值标量函数原创 2020-12-14 17:04:32 · 1697 阅读 · 0 评论 -
矩阵求导公式的数学推导(矩阵求导——进阶篇)
写的很不错https://zhuanlan.zhihu.com/p/288541909原创 2020-12-09 21:30:48 · 534 阅读 · 0 评论 -
矩阵求导公式的数学推导(矩阵求导——基础篇)
https://zhuanlan.zhihu.com/p/273729929原创 2020-12-09 21:28:21 · 2924 阅读 · 0 评论 -
矩阵论——导数与梯度
原创 2020-12-09 10:19:00 · 981 阅读 · 0 评论 -
伴随矩阵和逆矩阵的关系证明
相关资料:https://wenku.baidu.com/view/85d3506f77c66137ee06eff9aef8941ea76e4bd1.html原创 2020-12-14 16:45:31 · 11971 阅读 · 0 评论 -
函数可微的定义
附:导数与微分https://wenku.baidu.com/view/676a08b065ce05087632131f.html原创 2020-12-13 16:54:50 · 14673 阅读 · 0 评论