机器学习
文章平均质量分 74
BAKAb
计算机系大学生
展开
-
对于RankSVM的一点理解(没解释明白,求大佬点拨)
RankSVM的原始形式:对比SVM的原始形式:假设yi=1,则RankSVM与SVM的不同之处就在约束条件中的核函数部分,前者意思为hi-hj,后者为hi。我们假设h为训练模型所得的决策函数。我一直在思考的问题是RankSVM所要最大化的距离是哪一段距离,是任一样本对之间的距离(总共有(l*(l-1)/2)对)?在论文Ordinal Regression in Evolutionary Computation中,RankSVM最大化等级间隔,最大化相邻等级对的距离。而An effici原创 2021-06-03 22:54:30 · 970 阅读 · 3 评论 -
Widrow-Hoff(Adaline)算法的对偶形式
(是老师布置的作业,由于没有找到答案,所以自己凭想象写了一个,不知道正确与否。如果有知道的大佬,跪求纠正与讲解。)1.Rosenblatt感知机1)该学习算法的原始形式2)对偶形式3)该学习算法的对偶形式2.Widrow-Hoff(Adaline)算法1)已知该学习算法的原始形式2)对偶形式3)根据对偶形式得到的Widrow-Hoff(Adaline)算法的对偶形式如下(自己根据Rosenblatt感知机的推导方法凭想象推的)...原创 2020-06-02 21:21:25 · 506 阅读 · 0 评论 -
No Free Lunch Theorem(NFL)(摘抄)
如果考虑所有潜在的问题,无论学习算法A多聪明,学习算法B多笨拙,他们的训练集外误差相同。所以脱离具体问题,空泛地谈论“什么学习算法更好”毫无意义。要谈论算法地相对优劣,必须要针对具体的学习问题;在某些问题上表现好的学习算法,在另一些问题上却可能不尽如人意,学习算法自身的归纳偏好与问题是否相配,往往会起到决定性的作用。...原创 2020-05-27 21:12:18 · 214 阅读 · 0 评论