一,机器学习和人工智能,深度学习的关系
计算机视觉的应用
图像分类(CNN)
目标检测(RCNN)
目标跟踪
语义分割(FCN)
实例分割(Mask R-CNN)
机器学习的数学基础
1.向量
向量:简单理解就是有向线段。
2.线性变换
3.矩阵
矩阵乘法:两个矩阵相乘,需要满足A的列数等于B的行数
矩阵乘法不满足交换律
单位矩阵:是一个n x n 的矩阵,从左到右的对角线上的元素是1,其余元素是0.
逆矩阵:逆矩阵和原矩阵相乘为单位矩阵
奇异矩阵:当一个矩阵没有逆矩阵的时候,该矩阵为奇异矩阵
矩阵的转置:行和列互换
对称矩阵:如果一个矩阵转置后等于原矩阵,那么这个矩阵就称为对称矩阵
一个矩阵转置和这个矩阵的乘积就是一个对称矩阵
欧式变换:旋转和平移
齐次坐标:用N+1维莱代表N维坐标
4.导数和偏导数
导数:就是曲线的斜率,描述曲线变化快慢的物理量,同时曲线的极大值点处导数为0
偏导数:多元函数中,求导时把其他每一个变量看成常量。
5.梯度
梯度:表示某一函数在该点处的方向导数沿着该方向取得最大值。
多元函数求梯度:对多元函数的各个变量求偏导数,并把求得的这些偏导数写成向量形式。
梯度下降法:寻找函数极小值的方法。
普遍做法:给一个随机参数的初始值,按照当前点对应的梯度方向的反方向,并按事先给定好的步长大小,对参数进行调整,多次调整,函数会逼近一个极小值。
梯度下降法存在的问题:
1.参数调整缓慢
2.收敛于局部最小值
6.概率学基础
1.概率:1):P( A ‾ \overline{A} A) = 1-P(A);
2): P(A - B) = P(A) - P(AB);
2.数学期望(均值):一事件平均发生的概率。
E ( x ) = ∫ − ∞ + ∞ x f ( x ) E(x) = \int_{-\infty}^{+\infty}xf(x) E(x)=∫−∞+∞xf(x)
3.方差:用来刻画随机变量x和数学期望E(X)之间的偏离程度。
S 2 = 1 n [ ( x 1 − x ) 2 + ( x 2 − x ) 2 + . . . + ( x n − x ) 2 ] S^2 = \frac{1}{n}[(x_1-x)^2+(x_2 - x)^2+...+(x_n -x)^2] S2=n1[(x1−x)2+(x2−x)2+...+(x