machine learning
titake
这个作者很懒,什么都没留下…
展开
-
为什么β>1 时 F-score中召回率越重要
模型训练中根据precision 和 recall计算F-score进而全面考虑准确率和召回率。如果认为 准确率和召回率同等重要,就让β = 1,这就是F-1 score如果认为召回率更重要,就设定 β > 1。如果认为精确率更重要,就设定 β < 1这是因为,当 β 趋近于正无穷时,F-Score趋近于Recall rate;而当 β 趋近于 0 时,F-Score趋近于 Precision。...原创 2021-11-18 14:54:12 · 754 阅读 · 2 评论 -
手推线性回归与逻辑回归 (两个LR,linear regression;logistic regression)
一开始看统计学习方法上的手推LR,那个最大似然函数那看的晕晕乎乎的。这两天又看了这个大哥讲的空间和概率上定义LR的目标函数,以及求解。清晰很多1、线性回归 Linear Regression1.1、目标函数的定义1.1.1 空间角度和SVM一样,首先定义目标函数。SVM是从空间考虑,点到超平面的最小距离最大。LR的空间考虑很直观,最小各点到回归线的距离之和。min∑i=1N∣∣wTxi−...原创 2020-03-25 11:45:36 · 278 阅读 · 0 评论 -
SVM手推求解
看了 这个up主讲的白板推SVM,来总结一下。哇靠,刚刚又去看了一下up主之前发的视频,真的是大神。慢慢补完吧。毕竟拉格朗日乘子我都不明白是啥。SVM 硬间隔硬间隔 和软间隔的区别在于,硬间隔要求把N个样本点都准确的分到超平面两边。软间隔可以有被误分类的点。1、svm定义首先根据svm的定义(所有的“正类点”都被分到超平面 wTx+b=0w^Tx+b=0wTx+b=0上方,所有的“负类点”...原创 2020-03-23 00:51:31 · 419 阅读 · 0 评论