数学基础
Sunshine_in_Moon
对计算机视觉,深度学习方向很感兴趣,愿意和大家分享。现在学习大规模人脸识别,人脸检测等相关工作,希望得到大家的帮助!
展开
-
点到直线的距离
本文转自:http://blog.csdn.net/gisoracle/article/details/4645094/****点到直线的距离*** * 过点(x1,y1)和点(x2,y2)的直线方程为:KX -Y + (x2y1 - x1y2)/(x2-x1) = 0 * 设直线斜率为K = (y2-y1)/(x2-x1),C=(x2y1 -转载 2015-05-03 10:31:39 · 811 阅读 · 1 评论 -
矩阵求导
本文转自:http://blog.csdn.net/wudisunyanzi/article/details/17346131在网上看到有人贴了如下求导公式:Y = A * X --> DY/DX = A'Y = X * A --> DY/DX = AY = A' * X * B --> DY/DX = A * B'Y = A' * X' * B --> DY/DX转载 2015-06-11 17:25:51 · 634 阅读 · 0 评论 -
点乘与叉乘
本文转自:http://blog.csdn.net/zhiyi_2012/article/details/12972813转载自:维基百科在数学中,数量积(也称为内积、标量积、点积、点乘)是接受在实数R上的两个向量并返回一个实数值标量的二元运算。它是欧几里得空间的标准内积。几何学定义与例子两个向量a = [a1, a2,…, an]和b = [b1, b2,…, b转载 2015-06-10 21:17:23 · 6749 阅读 · 0 评论 -
双线性插值
本文转自:http://www.cnblogs.com/linkr/p/3630902.html双线性插值,这个名字咋一听很高大上的样纸,再在维基百科上一查(见文末,我去,一堆的公式吓死人),像俺这种半文盲,看到公式脑子就懵的类型,真心给跪。虽然看着好复杂,但仔细一看道理再简单不过了,所以还是自己梳理一下好。双线性插值,顾名思义就是两个方向的线性插值加起来(这解释过于简单粗暴,转载 2015-06-30 16:44:09 · 2110 阅读 · 0 评论 -
奇异值分解
本分引用了:http://blog.csdn.net/abcjennifer/article/details/8131087http://blog.csdn.net/google19890102/article/details/27109235一、什么是酉矩阵?n阶复方阵U的n个列向量是U空间的一个标准正交基,则U是酉矩阵(Unitary Matrix)。显然酉矩阵是正交矩阵往复数原创 2015-06-11 11:47:22 · 1765 阅读 · 0 评论 -
极大似然估计原理思想
本文转自:http://blog.csdn.net/poi7777/article/details/23204789 在机器学习的领域内,极大似然估计是最常见的参数估计的方法之一,在这里整理一下它的基本原理。极大似然估计从根本上遵循——眼见为实,这样的哲学思想。也就是说,它严格地仅仅利用了已知的实验结果,来估计概率模型中的参数。 极大似然估计的计转载 2015-06-09 19:37:49 · 12812 阅读 · 0 评论 -
什么是NP问题?
本文转自:http://blog.csdn.net/panpan639944806/article/details/8146206什么是NP问题概念:在计算机学科中,存在多项式时间的算法的一类问题,称之为P类问题;而像梵塔问题、推销员旅行问题、(命题表达式)可满足问题这类,至今没有找到多项式时间算法解的一类问题,称之为NP类问题。拿推销员旅行问题为例,假设推销员亨利有向转载 2015-06-08 20:27:38 · 1384 阅读 · 0 评论 -
最小二乘法直线拟合简介
本文转自:http://blog.csdn.net/Naruto_ahu/article/details/8694366曲线拟合中最基本和最常用的是直线拟合。设x和y之间的函数关系为: y=a+bx式中有两个待定参数,a代表截距,b代表斜率。对于等精度测量所得到的N组数据(xi,yi),i=1,2……,N,xi值被认为是准确的,所有的误差只联转载 2015-05-21 22:15:07 · 2478 阅读 · 0 评论 -
高斯牛顿法
本文转自:http://blog.csdn.net/dourenyin/article/details/8606883对于多维函数故函数的雅克比矩阵为如现有,给定一个初始值,则其每一次的迭代增量为 代价函数用于评估迭代终止条件:转载 2015-05-17 21:40:38 · 1245 阅读 · 0 评论 -
泰勒级数、欧拉公式、三角函数
本文转自:http://blog.csdn.net/shihaijiang1987/article/details/6690992泰勒级数的定义:若函数f(x)在点的某一临域内具有直到(n+1)阶导数,则在该邻域内f(x)的n阶泰勒公式为:其中:,称为拉格朗日余项。以上函数展开式称为泰勒级数。泰勒级数在幂级数展开中的作用:在泰勒公式中,取,得:这个级转载 2015-05-17 21:04:21 · 3562 阅读 · 0 评论 -
最小二乘法(一般形式和矩阵形式)
转自:作者:金良(golden1314521@gmail.com) csdn博客:http://blog.csdn.net/u0121765911.线性代数模型首先给出最小二乘解的矩阵形式的公式:推导过程:条件:矩阵必须是列满秩矩阵,否则的逆就不会存在。若A为m×n的矩阵,b为m×1的矩阵,则Ax=b表转载 2015-05-17 21:38:38 · 35878 阅读 · 4 评论 -
特征值和特征向量的实际意义
本文转自知乎大牛。 从定义出发,Ax=cx:A为矩阵,c为特征值,x为特征向量。 矩阵A乘以x表示,对向量x进行一次转换(旋转或拉伸)(是一种线性转换),而该转换的效果为常数c乘以向量x(即只进行拉伸)。 我们通常求特征值和特征向量即为求出该矩阵能使哪些向量(当然是特征向量)只发生拉伸,使其发生拉伸的程度如何(特征值大小)。这样做的意义在于,看清一个矩阵在那些方面能产生最大的效果(power)转载 2015-05-15 21:18:39 · 27971 阅读 · 1 评论