数学
血影雪梦
加油!FIGHT~~~~OH!!!!
展开
-
线性代数笔记的一处勘误
第三页 若 n - r(λE - A) = 重根数 (如 λ = 0 为二重根,n - r(A) = 2) 改为 若 n - r(λE - A) = 重根数 (如 λ = 0 为二重根,n - r(λE - A) = 2)PS:n =r(A)...原创 2019-10-30 09:34:19 · 687 阅读 · 0 评论 -
考研数学笔记分享
分享下自我总结的数学笔记,希望可以给你些参考和帮助。说明: “高等数学” 第一章是自己总结,之后都是照搬的 “Kira高数葵花宝典” “线性代数” 完全由自己总结,对这份笔记的质量我还是很自信的(挺胸)。高等数学: 链接: https://pan.baidu.com/s/193U2SNvBkiSfLRBUo3vDeg 提取码: n4ay线性代数: 链接:...原创 2019-07-10 09:37:27 · 3171 阅读 · 8 评论 -
凸优化 - 4 - 凸优化、Lagrange乘子法、KKT条件
前提说明:为了方便查阅,我将整个凸优化的内容分成了很多部分,因为后面的部分用到了前面的知识,所以,如果你的目的是查看后面的内容但对前面的某个知识点不甚了解的话可以根据标题查看前面的部分。凸优化 终于到凸优化了.... 什么是凸优化问题呢?是这样。 慢慢的我们会遇到这样的优化问题:原创 2016-07-08 09:13:40 · 13585 阅读 · 3 评论 -
凸优化 - 2 - 凸集和凸函数
前提说明:为了方便查阅,我将整个凸优化的内容分成了很多部分,因为后面的部分用到了前面的知识,所以,如果你的目的是查看后面的内容但对前面的某个知识点不甚了解的话可以根据标题查看前面的部分。凸集 既然是讲解凸优化,那不了解凸集怎么能行,不过在此之前先了解个和凸集有“一点点”不同的仿射集。 仿射集:若通过集合C中任意两个不同点的直线仍在集合C内,则称集原创 2016-07-08 09:01:08 · 17155 阅读 · 5 评论 -
凸优化 - 1 - 直线和几何体的向量表达
前提说明:为了方便查阅,我将整个凸优化的内容分成了很多部分,因为后面的部分用到了前面的知识,所以,如果你的目的是查看后面的内容但对前面的某个知识点不甚了解的话可以根据标题查看前面的部分。直线和几何体的向量表达 2x1+ 3x2 -13 = 0 表示一条直线是毋容置疑的,而这种方式我们也经常见到,但这种表达方式对研究凸优化是远远不够的,所以我们来看看另一种表达方式,如下:原创 2016-07-08 08:46:06 · 2524 阅读 · 5 评论 -
“正交阵”与“特征值和特征向量”
概念:若n阶矩阵A满足ATA=I,则A为正交矩阵,简称正交阵。 ATA=I解释的话就是: “A的第i行”*“A的第i列”= 1 “A的第i行”*“A的非第i列”= 0。 其他: 1,A是正交阵,x为向量,则A·x称作正交变换;原创 2016-07-04 16:15:13 · 30004 阅读 · 4 评论 -
对向量、方阵的求导
平时都是对一个数求导,那对向量求导呢?看下面的例子: 假设有下面这样的矩阵A和向量X 我们很容易求出 现在另 y = A·X,那矩阵y对向量x求偏导的结果是多少? 我们来分析一下,既然是矩阵y对向量x求偏导,那就的让矩阵y中的每一个原创 2016-07-05 11:04:45 · 31442 阅读 · 7 评论 -
奇异值分解SVD
关于奇异值分解的名字: 第一次看“奇异值分解”时真是超不知所以。不过它的英文名字是Singular Value Decompostion。而Signular是“突出的、奇特的、非凡的”的意思,于是用“优值分解”的这个名字好像更贴切些,而且“优值分解”这个名字的第一印象就比“奇异值分解”更让人容易接受。什么是奇异值分解: 假设A是一个m*n的实矩阵,那么一原创 2016-07-05 09:11:40 · 3712 阅读 · 0 评论 -
QR分解
关于如何求一个矩阵A的特征向量X和特征值λ,在上学时我们通常使用如下方法: AX =λX =λIX (I:单位阵) => |A -λI| = 0 => 求出λ =>代入AX =λX求出X 但在实际应用中这样没啥实际价值原创 2016-07-05 11:40:33 · 25040 阅读 · 3 评论 -
凸优化 - 3 - Jensen不等式、共轭函数、Fenchel不等式
前提说明:为了方便查阅,我将整个凸优化的内容分成了很多部分,因为后面的部分用到了前面的知识,所以,如果你的目的是查看后面的内容但对前面的某个知识点不甚了解的话可以根据标题查看前面的部分。Jensen不等式 还记得凸函数的定义吗? 也就是这个公式:f(θx+ (1-θ)y) ≤θf(x) + (1-θ)f(y) 用大白话说的话就是:函数原创 2016-07-08 09:07:51 · 13784 阅读 · 6 评论 -
标量对矩阵求导、复合函数的概率密度
标量对方阵的导数 第二个等式的原因是 复合函数的概率密度题目:给定X的概率密度fX(x),若Y = ax,a是某个正实数,求Y的概率密度。遇到这样的问题时不是直接把y代入f(x)然后求,正确的做法是: PS1:如果a是负实数,则给结论的第一个1/a加上绝原创 2016-07-15 10:24:38 · 10127 阅读 · 0 评论 -
白化/漂白/whitening
这里总结“白化”或者说“漂白”,其英文名字是:whitening。下文就都用白化来称呼了。 定义: 先说明下,虽然下面的内容是在解释白化但请先忘掉我们的目的,单纯的跟着下面的内容进行思考: 1,随便给一个n*m的矩阵x,那x·xT就是个n*n的对称阵。原创 2016-07-04 17:07:43 · 1131 阅读 · 0 评论 -
正定阵
定义: 对于n阶方阵A,若任意n阶非零向量x(x里面的元素不能全为0),都有xTAx>0,则称A是正定阵。 若条件变成xTAx≥0,则A称作半正定阵 类似还有负定阵,半负定阵。 数学家为什么要定义正定阵: 其实是这样,如果把n降为1,那A就是一个数,而向量x也变成了一个数。 那xTAx就是原创 2016-07-05 09:00:07 · 1802 阅读 · 0 评论 -
极大似然估计
极大似然估计 多数情况下,我们是根据条件/概率分布来推算结果,而极大似然估计就是反过来,即:已经知道了结果,然后寻求使该结果出现的可能性最大的条件/概率分布。 举个例子。 如果其他条件都固定的话“抽烟者发生肺癌的概率是不抽烟者的5倍”,那么如果我已经知道有个人是肺癌,我想问这个人抽烟还是不抽烟时你怎么判断?我想你会说这原创 2016-07-14 09:45:13 · 963 阅读 · 0 评论 -
理解矩阵乘法
转自:http://www.ruanyifeng.com/blog/2015/09/matrix-multiplication.html刚学的时候,还蛮简单的,矩阵加法就是相同位置的数字加一下。矩阵减法也类似。矩阵乘以一个常数,就是所有位置都乘以这个数。但是,等到矩阵乘以矩阵的时候,一切就不一样了。这个结果是怎么算出来的?教科转载 2016-05-23 14:43:48 · 669 阅读 · 0 评论