![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
小白学机器学习,从今天开始学习,记录自己的学习笔记
欧 阳
这个作者很懒,什么都没留下…
展开
-
支持向量机3
原问题和对偶问题 1、定义 原问题: 对偶问题: 定义函数 在定义了上述函数情况下,对偶问题如下: 2 定理 根据原问题和对偶问题定义,可得到如下定理: 定理一: 定理二: 引入对偶差距概念: 3 KKT条件 根据定理一推出 ...原创 2021-09-25 21:46:40 · 60 阅读 · 0 评论 -
支持向量机2
一:关于核函数: 1 核函数是一个数 2 核函数必须满足一定条件,才能写成内积形式,条件如下: 二:关于原问题和对偶问题 原问题定义: 在以上定义中,自变量为w(多维向量),目标函数为f(w)。 其对应的对偶问题为: 根据以上定义,可以得到如下定理: 定理一: 证明如下: 定理二:强对偶定理 简单说,就是:如果原问题目标函数是凸函数,限制条件是线性函数,则原问题解等于对偶问题解。对偶差距为0. 根据定理一可以推导出KKT条件,具体如下: ...原创 2021-09-06 20:44:46 · 70 阅读 · 0 评论 -
支持向量机1
重要概念: 1 线性可分: 2 线性不可分: 图1 图2 基于二维特征空间时,有如下定义: 以上间隔确定的直线并不唯一。 支持向量机寻找的最优分类直线应满足的条件: 1 该直线分开了两类 2 该直线有最大间隔 3 该直线处于间隔中间,到所有支持向量距离相等。 线性可分情况下,支持向量机寻找最佳超平面的优化问题可以有如下表述: 在推导之前,有如下两个事实: 1 2 基于上述事实,有如下推导过程: 关键过程1: 优化问题为求最大的d,转换为求最小的||w||,上述表述中加1/2,是为了后续求导原创 2021-09-05 21:10:34 · 90 阅读 · 0 评论 -
机器学习分类
机器学习定义关键词:非显著式编程。 分类: 按任务性质分类: 监督学习:人为输入经验E(标签) 强化学习:计算机通过与环境互动,逐渐强化自己的行为模式。 这样的分类并不绝对,实际往往是两者结合,先用监督学习获得一个还不错的训练模型,然后通过强化学习强化行为,提高收益。 监督学习分类方法1: 根据数据标签,监督学习又可分为: 1)传统监督学习 特点:每个数据都有标签。 主要算法:支持向量机,人工神经网络,深度神经网络。 2)非监督学习 特点:所有数据都没有标签 例子: 主要算法:聚类,EM算法,主成分分析 3原创 2021-09-04 18:03:40 · 235 阅读 · 0 评论