![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 74
BAKAb
计算机系大学生
展开
-
对于RankSVM的一点理解(没解释明白,求大佬点拨)
RankSVM的原始形式: 对比SVM的原始形式: 假设yi=1,则RankSVM与SVM的不同之处就在约束条件中的核函数部分,前者意思为hi-hj,后者为hi。我们假设h为训练模型所得的决策函数。 我一直在思考的问题是RankSVM所要最大化的距离是哪一段距离,是任一样本对之间的距离(总共有(l*(l-1)/2)对)?在论文Ordinal Regression in Evolutionary Computation中,RankSVM最大化等级间隔,最大化相邻等级对的距离。而An effici原创 2021-06-03 22:54:30 · 952 阅读 · 3 评论 -
Widrow-Hoff(Adaline)算法的对偶形式
(是老师布置的作业,由于没有找到答案,所以自己凭想象写了一个,不知道正确与否。如果有知道的大佬,跪求纠正与讲解。) 1.Rosenblatt感知机 1)该学习算法的原始形式 2)对偶形式 3)该学习算法的对偶形式 2.Widrow-Hoff(Adaline)算法 1)已知该学习算法的原始形式 2)对偶形式 3)根据对偶形式得到的Widrow-Hoff(Adaline)算法的对偶形式如下(自己根据Rosenblatt感知机的推导方法凭想象推的) ...原创 2020-06-02 21:21:25 · 494 阅读 · 0 评论 -
No Free Lunch Theorem(NFL)(摘抄)
如果考虑所有潜在的问题,无论学习算法A多聪明,学习算法B多笨拙,他们的训练集外误差相同。 所以脱离具体问题,空泛地谈论“什么学习算法更好”毫无意义。 要谈论算法地相对优劣,必须要针对具体的学习问题;在某些问题上表现好的学习算法,在另一些问题上却可能不尽如人意,学习算法自身的归纳偏好与问题是否相配,往往会起到决定性的作用。 ...原创 2020-05-27 21:12:18 · 205 阅读 · 0 评论