机器学习
LeeLeeLee钟硕
微电子中的算法人,vivo-iqoo体感操控设计师(2022),来交个朋友
展开
-
[机器学习]LDA 线性判别分析 约束公式详解 周志华机器学习 笔记
1.线性判别分析的基本出发点 借用一下周教授传奇大作西瓜书华人区《机器学习》配图,线性判别分析是很老的技术了,最早提出于1936年,线性判别分析的主要思想是:将需要分类的向量投影到一个超平面,投影后同类别的向量将集中一起,容易通过简单的距离比较对两类数据进行分类。 2.线性判别分析的相关公式详解公式1:投影转换 这个公式的含义是,x为数据的向量,...原创 2018-12-04 19:42:15 · 1893 阅读 · 0 评论 -
[机器学习]ID3决策树 详细计算流程 周志华机器学习 笔记 原创Excel手算方法
1.用到的主要三条熵公式:1.1 信息熵 详情见香农信息论 概率越平衡 事件所含有的信息量越大1.2 条件熵 代表某一属性下不同分类的信息熵之和1.3 信息增益 等于信息熵减去条件熵,从数值上,越大的信息增益在信息熵一定的情况下,代表条件熵越小,条件熵越小,即该分类下的不平衡性越大 2.西瓜数据集2.0的详细手算结点划分 原创的Excel方法zhonglihao...原创 2018-11-14 22:12:08 · 4952 阅读 · 5 评论 -
[机器学习]模型评估与选择 查准率与查全率 周志华机器学习 笔记
1.错误率 E = a/m,a为分错的样本数,1-a/m成为精度;2.误差在训练集上的叫“训练误差”,测试集上叫“泛化误差”;3.过拟合,欠拟合,都是对趋势学习不好的表现;4.训练方式:留出法,两个互斥的集合s,t,里面正反例的分布应该要均衡,所以在Matlab中用了随机打乱。5.交叉验证法,每次采用若干子集作为并集,剩下的作为测试集合。6.查准率P与查全率R: ...原创 2018-12-04 19:41:58 · 429 阅读 · 0 评论 -
[机器学习]SVM支持向量机 入门理解 拉格朗日乘子法详解 周志华机器学习 笔记
1.SVM支持向量机的设计出发点 又要借用一下周教授华人区《机器学习》的配图,SVM的设计初衷是,在类与类之间找到一个超平面,这个超平面根据关键的支持向量来获得最好的类间距离,以使分类器的泛化性能达到最好,相比于神经网络,SVM设计有着严谨的数学推导支撑和较好的泛化性能,这是它令许多理论派着迷的地方。 2.SVM的相关公式摘录与理解超平面公式 该公式...原创 2019-01-03 11:38:12 · 1291 阅读 · 0 评论 -
[机器学习]线性回归:最小二乘法
clc;clear all;close all;% 构造超平面数据% 系数定义 a1 = 5;a2 = 10;a3 = 50;% 记录线性回归的数据表data_table = zeros(100*100,4);k = 0;for i = 1:1:100 for j = 1:1:100 % 超平面绘图 加上噪声 z(i,j) = a1...原创 2019-01-03 22:54:12 · 221 阅读 · 0 评论 -
[机器学习]一维聚类:最大类计算
% 一维数组聚类,找出规模最大的类clc;clear all;close all;% 待聚类的一维数据 data_1 = 20*ones(15,1) + randn(15,1);data_2 = 5*ones(5,1) + randn(5,1);data_3 = 15*ones(5,1) + randn(5,1);data_4 = 50*ones(2,1) + randn(2,1)...原创 2019-03-03 08:36:08 · 1810 阅读 · 0 评论 -
[机器学习]机器学习中的小笔记
岭回归,Lasso回归在拟合回归中回出现过拟合现象,表现为拟合方差的过大,训练系数W的过大,加入正则化L1 L2项训练使得方差减少,偏差增大;Lasso-L1回归特性:某些系数可以为0,变为稀疏特征,但其损失方程不可导,a系数增大收敛比岭回归快;Ridge-L2回归特性:系数变小但不为0,方程可导,收敛没Lasso回归快;kappa系数...原创 2019-09-04 22:18:26 · 206 阅读 · 0 评论