感知机学习算法的原始形式和对偶形式

原始形式和对偶形式是从两个方面去计算梯度下降的问题,两种方法找误分点的个数是一样的,区别在于,找到一个误分点时两者接下来的计算方法:(N为训练集大小,n为特征数量)

(1)对偶形式:扫一遍N,计算每条数据在之前被加了几(ai)次(当η取1时,ai相当于第i组数据的梯度xiyi被加了几次,找到一个误分点后直接加上,而不是每次加),因为xixj已经被提前计算在Gram矩阵中,所以每次是O(1),那么扫一遍N就是O(N)。

(2)原始形式:每次计算w*x,计算此内积复杂度为O(n)

所以看下来,选择哪种计算方法取决于训练集和特征数量的大小。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值