机器学习
文章平均质量分 56
机器学习
浪里摸鱼
欢迎光临(*`∀´*)ノ亻!
展开
-
【机器学习笔记】第一、二章:基础术语、模型评估和选择
【机器学习笔记】第一、二章:基础术语、模型评估和选择原创 2021-07-13 19:34:02 · 105 阅读 · 0 评论 -
【机器学习笔记】第三章:线性模型
【机器学习笔记】第三章:线性模型原创 2021-07-19 20:45:56 · 381 阅读 · 0 评论 -
【机器学习笔记】第四章:决策树
【机器学习笔记】第四章:决策树原创 2021-07-22 21:57:29 · 88 阅读 · 0 评论 -
【机器学习笔记】第五章:神经网络
【机器学习笔记】第五章:神经网络原创 2021-07-25 21:36:21 · 272 阅读 · 0 评论 -
【机器学习笔记】第六章:支持向量机
【机器学习笔记】第六章:支持向量机原创 2021-07-29 21:20:51 · 303 阅读 · 0 评论 -
KL散度(相对熵)
香农信息量I:熵H§:交叉熵H(p,q)越小,p,q越相似。相对熵(KL散度)其中p(xi)和q(xi)是两个概率分布,KL使用来计算两个信息熵之间的差值的。在判断预测是否准确的时候可以用预测值作为q(xi),p(xi)作为真实值。熵、交叉熵和相对熵关系...原创 2021-06-27 14:12:25 · 126 阅读 · 0 评论 -
学习svm时候遇到的问题
这里写目录标题1. 为什么要转换成对偶问题?2. svm问题只能通过使用拉格朗日乘子转换成对偶问题求解吗?3. kkt条件的作用1. 为什么要转换成对偶问题?方便核函数的引入改变了问题的复杂度。由求特征向量w转化为求比例系数a,在特征维度比较高的时候会减少计算复杂度,在特征维度低于系数数量的时候通过直接求解原始问题计算量更小求解更高效,因为只用求解alpha系数,而alpha系数只有支持向里才非0,其它全部为0。计算过程:点击跳转2. svm问题只能通过使用拉格朗日乘子转换成对偶问题求解吗?原创 2021-06-14 17:18:46 · 228 阅读 · 0 评论 -
机器学习降维
图像中每个像素点就是一个维度原创 2020-10-30 09:26:48 · 150 阅读 · 0 评论 -
梯度下降、牛顿法、极大似然、交叉熵、最小二乘之间的区别和联系
分类看到这个问题其实我们首先要把这些算法分一下类:极大似然、交叉熵、最小二乘是用来计算损失(loss)的梯度下降、牛顿法是用来优化的深度学习训练的时候每一轮都会计算输出loss然后根据梯度下降法进行优化公式最小二乘法交叉熵牛顿法极大似然区别最小二乘法直接使用极值,将极值作为最小值。其假定有二:1,损失函数中极值就是最小值。2,损失函数具有极值。梯度下降是用迭代的方法求出局部最优解牛顿法需要求逆,还要求目标函数f(x)二阶可导。...原创 2021-04-04 10:05:51 · 521 阅读 · 1 评论 -
手推梯度下降
单变量函数的梯度下降多变量函数的梯度下降原创 2021-04-03 16:17:12 · 191 阅读 · 2 评论