![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 52
JL_Jessie
这个作者很懒,什么都没留下…
展开
-
机器学习评价指标ROC中 macro,micro 的区别
macro:每种类别下,都可以得到m个测试样本为该类别的概率(矩阵P中的列)。所以,根据概率矩阵P和标签矩阵L中对应的每一列,可以计算出各个阈值下的假正例率(FPR)和真正例率(TPR),从而绘制出一条ROC曲线。这样总共可以绘制出n条ROC曲线。最后对n条ROC曲线取平均,即可得到最终的ROC曲线。micro:首先,对于一个测试样本:1)标签只由0和1组成,1的位置表明了它的类别(可对应二分类问题中的‘’正’’),0就表示其他类别(‘’负‘’);2)要是分类器对该测试样本分类正确,则该样本标签中1对应的原创 2021-06-19 16:40:05 · 8835 阅读 · 0 评论 -
相关系数
1.谷本系数 Tanimoto Coefficient参考:谷本系数Tanimoto 系数Tanimoto系数由Jaccard系数扩展而来。两个集合的交比上两个集合的并。举例:两个人拥有相同的东西/两个人所有的东西可以看出两个人的相关程度,如果拥有相同东西越多表明两个人的兴趣爱好越相同(一般情况下)Jaccard系数两个特征向量A,B,如果其值都是0,1的二值数据,那么有一个简单...原创 2020-04-21 10:32:02 · 5141 阅读 · 0 评论 -
深度学习中的正则化--花书第7章
机器学习的核心问题是设计不仅在训练集上表现好, 并且在新输入上泛化好的算法.许多策略被用来减少测试误差(这些策略在减少测试误差的同时 有可能增加训练误差),这就叫正则化.参数范数惩罚原始目标函数为 JJJ. 添加正则化后的目标函数为 J~\widetilde JJ: J~(θ;X,y)=J(θ;X,y)+αΩ(θ)\widetilde J(\theta; X,y)=J(\theta;X,y)+...原创 2020-04-20 23:30:09 · 366 阅读 · 0 评论 -
最大似然估计(Maximum likelihood estimation)
最大似然估计最大似然估计是机器学习领域最为常见的用来构建目标函数的方法,它的核心思想是根据观测到的结果来预测其中的未知参数。观测到的是 样本数据。需要估计的是 能够产生这些样本的 模型的参数。待估计的参数 θ\thetaθ —> (产生) 观测到的样本。待估计的参数 θ\thetaθ <—(估计) 观测到的样本。假设未知参数为θ\thetaθ,已知的样本为D,最大似然估...原创 2020-02-13 15:46:02 · 654 阅读 · 0 评论