![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
小马帅就是我没错了
凡事贵在坚持
展开
-
Precision、Recall、F1-Score、Micro-F1、Macro-F1描述
TP、FP、FN、FPTP、True Positive 真阳性:预测为正,实际也为正FP、False Positive 假阳性:预测为正,实际为负FN、False Negative 假阴性:预测与负、实际为正TN、True Negative 真阴性:预测为负、实际也为负。【一致判真假,预测判阴阳。】例程:首先看真阳性:真阳性的定义是“预测为正,实际也是正”,这个最好理解,就是指预测正确,是哪个类就被分到哪个类。对类A而言,TP的个位数为2,对类B而言,TP的个数为2,对类C而言,TP的原创 2020-07-15 15:27:04 · 574 阅读 · 0 评论 -
稀疏贝叶斯相关代码和论文
论文:Structured Bayesian Gaussian process latent variable model: applications to data-driven dimensionality reduction and high-dimensional inversion 链接github:https://github.com/cics-nd/sgplvm-inverse内...原创 2019-12-25 11:14:05 · 2290 阅读 · 0 评论 -
稀疏贝叶斯推断:基础之高斯与正态
摘要高斯分布,被誉为“上帝的分布”,具有强悍的建模能力和优美的数学性质,在现实中有广泛的作用。 由中心极限定理我们知道, 大量独立同分布的随机变量的均值在做适当标准化之后会依分布收敛于高斯分布, 这使得高斯分布具有普适性的建模能力;数学上, 当使用高斯分布对贝叶斯推断的似然和先验进行建模时, 得到的后验同样为高斯分布, 即其具有共轭先验性质。 在随机过程理论中, 多元高斯分布则是高斯过程的理论基...原创 2019-11-23 15:54:13 · 1400 阅读 · 0 评论 -
机器学习:特征选择(feature selection)
特征选择这篇文章是关于机器学习中常用的特征选择的一个小结,整体上包括两部分简介常见方法Filter去掉取值变化小的特征(Removing features with low variance)单变量特征选择 (Univariate feature selection)Wrapper递归特征消除 (Recursive Feature Elimination)Em...原创 2019-03-11 18:35:28 · 87646 阅读 · 3 评论 -
模型可解释性
模型可解释性:使用机器学习可解释性工具解释心脏病原因四部分内容:简介数据模型解释总结1. 介绍纵观机器学习的所有应用,当使用黑盒子模型去进行重要疾病诊断时总是难以让人信服。如果诊断模型的输出是一系列的特殊治疗过程(可能有副作用),比如需要手术,或者不需要治疗,人们总想知道为什么会有这样的结果,想知道模型输出的原因。这个数据集包含了很多有心脏病和没有心脏病的样本,每个样本包含很...原创 2019-03-06 23:27:02 · 10695 阅读 · 2 评论 -
雅可比行列式的意义
参考知乎原创 2019-08-31 22:43:38 · 17744 阅读 · 1 评论 -
Gram矩阵的意义
链接1:https://blog.csdn.net/wangyang20170901/article/details/79037867链接2:https://www.zhihu.com/question/49805962Gram Matrix实际上可看做是feature之间的偏心协方差矩阵(即没有减去均值的协方差矩阵),在feature map中,每一个数字都来自于一个特定滤波器在特定位置的卷...原创 2019-09-01 21:23:50 · 1040 阅读 · 0 评论