数学基础
SisyphusY
这个作者很懒,什么都没留下…
展开
-
机器学习数学基础(1)简化线性代数
本文是https://zhuanlan.zhihu.com/p/30191876的总结与补充 标量、向量、矩阵与张量: 1,标量 单独的数,小写符号表示,定义时说明所属范围 2,向量 一列数,粗体小写符号表示 3,矩阵 二维数组,粗体大写表示,矩阵大小表示标准:,A为m行n列矩阵 4,张量 对标量,向量,矩阵的标准化表示方法,标量是零阶张量,向量是一阶张量,矩阵是二阶张量原创 2018-02-01 14:58:12 · 329 阅读 · 1 评论 -
模式识别概论(5)回归分析与神经网络
线性回归:拟合参数h = [h1;h2],标签集y = [y1,y2,y3],一个样本x1 = [x1;x2],样本集X = [x1,x2,x3]代价函数:J = Σ(h' * x - y)^2,Σ是对所有样本求和对代价函数求导:...原创 2018-06-11 14:28:05 · 201 阅读 · 0 评论 -
模式识别概论(6)KNN算法
K最近邻算法:基于实例的分类算法稍后再补原创 2018-06-11 14:35:17 · 188 阅读 · 0 评论 -
用于拟合的线性回归(LR)算法
输入:1,连续的样本特征2,连续的样本标签目的:对连续的样本特征与标签拟合出误差最小的函数代价函数:为了最接近实际情况,最小化代价函数: J = 1/2m * Σ(h(xj) - yj) ^ 2m是样本个数,Σ对所有样本求导,j是样本序号,h(xj)是对第j个样本经过拟合函数的输出值,yj是第j个样本的样本标签最简单的直线拟合函数:h(x) = w1 * x + b...原创 2018-06-12 10:53:19 · 526 阅读 · 0 评论 -
用于寻找凸函数最小值的梯度下降(gradient descent)法
凸函数性质:1,在二维凸函数的最小值的x坐标的左边的x坐标对应的函数斜率是负数,在二维凸函数的最小值的x坐标的的右边的的x坐标的函数斜率是正数2,x坐标越接近于最小值的x坐标,对应的斜率越接近于0步骤:1,随机选取一个x坐标2,求这个点对应的斜率3,如果该点斜率为负数,说明该点在最小值的左边,x坐标需要增加,如果该点斜率为正数,说明该点在最小值的右边,x坐标 需要减小4,x坐标变换的步...原创 2018-06-11 10:40:06 · 1419 阅读 · 0 评论