机器学习
Kim‘s blog
永远在路上
展开
-
【计算机视觉】新冠肺炎COVID-19 CT影片阳性检测,感染区域分割,肺部分割,智慧医疗实践,医疗影像处理示例
本次实验基于COVID-19 CT scans数据集,根据患者肺部的CT扫描分析,对患者COVID阳性还是阴性进行分类。如果患者Covid阳性,则这行肺部和感染区域的分割。实验还实现了交互性良好的可视化界面,更有助于医护人员对病情的快速筛查。原创 2022-03-11 15:35:19 · 16801 阅读 · 232 评论 -
机器学习算法之LDA(线性判别分析)人脸识别FisherFaces,最大化类间散度,最小化类内散度,LDA线性判别分析原理剖析,LDA人脸识别matlab实现,LDA人脸识别python实现
这里写目录标题LDA算法概念LDA算法概念线性判别分析(Linear discriminant Analysis,LDA)是一种监督学习的降维技术,与无监督的PCA不同的是,PCA是寻找数据集中方差最大的方向作为主成分分量的轴,而LDA是最优化分类的特征子空间。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”。也就是说,要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。...原创 2021-07-21 14:12:20 · 1791 阅读 · 1 评论 -
机器学习算法之PCA(主成分分析)人脸识别,最小重构误差和最大化散度证明,PCA主成分分析原理剖析,PCA人脸识别matlab实现,PCA人脸识别python实现
目录PCA介绍PCA大致思路PCA人脸识别(特征脸法)matlab代码实现Python代码实现PCA几何解释PCA证明最小重构误差和最大散度等价实验结果PCA介绍 主成分分析(Principal Component Analysis, 简称PCA)是将多个变量通过线性变换以选出较少个数重要变量(主成分)的一种多元统计分析方法。 PCA通常用原创 2021-07-17 19:44:21 · 4360 阅读 · 1 评论 -
机器学习之线性模型-最小二乘法、梯度下降法
"""@author: JacksonKim@filename: linear_regression.py@start: 2021/02/01@end: 2021/02/02"""import numpy as npimport matplotlib.pyplot as plt'''1. 线性模型形式简单、易于建模,许多功能更为强大的非线性模型可在线性模型的基础上通过引入层级结构或高维映射而得。此外,线性模型有很好的可解释性。2. 线性回归算法是回归任务中比较简单的一种模型,其原创 2021-02-02 10:59:24 · 212 阅读 · 0 评论 -
机器学习之性能度量-查准率和查全率计算(precision and recall)
"""@author: JacksonKim@filename: confusion_matrix.py@start: 2021/02/01@end: 2021/02/01"""import numpy as npfrom sklearn import datasetsimport matplotlib.pyplot as pltfrom sklearn.neighbors import KNeighborsClassifier'''混淆矩阵是机器学习中总结分类模型预测结果的情原创 2021-02-01 16:31:25 · 1160 阅读 · 0 评论 -
机器学习之性能度量-实现混淆矩阵(confusion matrix)
"""@author: JacksonKim@filename: confusion_matrix.py@start: 2021/02/01@end: 2021/02/01"""import numpy as npfrom sklearn import datasetsimport matplotlib.pyplot as pltfrom sklearn.neighbors import KNeighborsClassifier'''混淆矩阵是机器学习中总结分类模型预测结果的情原创 2021-02-01 14:19:33 · 442 阅读 · 0 评论 -
机器学习之数据集划分-自助法(bootstrapping)
"""@author: JacksonKim@filename: bootstrapping.py@start: 2021/1/29@end: 2021/1/29"""import numpy as np'''1. 自助法以自助采样法为基础,采用放回抽样的方法,从包含m个样本的数据集D中抽取m次,组成训练集D',然后数据集D中约有36.8%的样本未出现在D’中,于是我们用D\D‘作为测试集2. 自助法在数据集较小,难以划分训练/测试集时很有用3. 自助法能从初始数据中产生多个不同的原创 2021-01-29 14:01:36 · 3610 阅读 · 0 评论 -
机器学习之数据集划分-k折交叉验证法(k-fold cross validation)
"""@author: JacksonKim@filename: k_fold_cross_validation.py@start: 2021/1/29@end: 2021/1/29"""import numpy as np'''1. k折交叉验证法就是将数据集D划分为k个大小相似的互斥子集,每个子集都尽可能保持数据分布的一致性2. 每次用k-1个子集的并集作为训练集,余下的那个子集作为测试集,从而获得k组训练/测试集3. 交叉验证法评估结果的稳定性和保真性很大程度上取决于k的取值原创 2021-01-29 13:36:12 · 2093 阅读 · 1 评论 -
机器学习之数据集划分-留出法(hold-out)
"""@author: JacksonKim@start: 2021/1/28@end: 2021/1/29"""import numpy as np'''1. 留出法直接将数据集D划分为两个互斥的集合,其中一个集合作为训练集S,另一个作为测试集T。2. 通常训练集和测试集的比例为70%:30%3. 训练/测试集的划分要尽可能保持数据分布的一致性,避免因数据划分过程引入额外的偏差对最终结果产生影响,通常采取分层采样的方法。'''# 随机产生我们的数据集x = np.rando原创 2021-01-29 11:39:15 · 3178 阅读 · 1 评论