实验3:利用SVM实现线性高斯分类

实验3:利用SVM实现线性高斯分类

hw3.1

  1. Perceptron:

    Consider running the Perceptron algorithm on some sequence of examples S (an example is a data point and its label). Let S′ be the same set of examples as S , but presented in a different

    1. a) Does the Perceptron algorithm necessarily make the same number of mistakes on S as it does on S′

      结论:一样

      首先我们知道感知机的误差定义准则为:

      [公式]

      [公式] 表示所有错误分类样本的集合。某个特定的错误的分类的样本对误差函数的贡献为样本被错误分类的区域中 [公式] 的线性函数,正确分类的误差函数为零。因此,总的误差函数是分段线性的。

      现在对误差函数使用随机梯度下降算法。得到权重 [公式] 的变化为:

      [公式]
      [公式]

      下面基于以上原理进行证明,错误数是相同的

      取超平面为 [公式] ,使 [公式]

      (此处做了两件事,一是将 [公式] 加入了 [公式] 的矩阵,即回归,二是将组合后的矩阵归一化)

      因为对于有限的 [公式] .均有

      [公式]

      所以存在 [公式] ,使得

      [公式] (1)

      感知器算法中,从 [公式] 开始,若输入实例被误分,则更新权重,令 [公式] 是第 [公式] 个误分实例之前的扩充权重向量,即 [公式]

      则第k个误分实例的条件是

      [公式] (2)

      而我们知道,若 [公式][公式] 误分,则 [公式][公式] 的更新是

      [公式]

      [公式]

      [公式] (3)

      下面证明俩不等式:

      (4) [公式]**

      由(1)和(3)可得

      [公式]

      由此递推可得 (4)

      [公式]

      (5) [公式]**

      由(2)和(3)得

      [公式][公式]

    2. b) If so, why? If not, show such an S and S′ where the Perceptron algorithm makes a different number of mistakes on S′ than it does on S

      上题已证

  2. 自己的一些问题:
    1. 在用感知机的时候,对偶形式为啥比原始形式高效?

hw3.2

  1. A proposed kernel Consider the following kernel function:

    image-20201012220743793
    image-20201012220743793
    1. a) Prove this is a legal ker

  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值