机器学习概述

文章介绍了机器学习的基本概念,包括通过算法让机器从数据中学习规律,以及模型选择的重要性。线性回归作为示例,讨论了优化方法如最小二乘法和岭回归。此外,提到了模型复杂度与拟合能力之间的平衡,以及损失函数和最优化算法,如梯度下降。文章还强调了在不同问题上没有通用最优的优化算法。
摘要由CSDN通过智能技术生成

概念和原理

因为现实世界中的问题都比较复杂,很难通过规则来手工实现,所以要“机器学习”

机器学习:通过算法使得机器能从大量数据中学习规律从而对新的样本做决策
规律:决策(预测)函数

常见的机器学习问题包括回归、分类、聚类

机器学习三要素

模型
线性方法
在这里插入图片描述

广义线性方法
如果o(x)为可学习的非线性基函数,f(x,o)就等价于神经网络

学习准则
期望风险
在这里插入图片描述

  • 期望风险未知,通过经验风险近似

  • 经验风险最小化
    在选择合适的风险函数后,寻找一个参数,使得经验风险函数最小化
    寻找参数

  • 机器学习问题转化成最优化问题

  • 可以优化以经验风险最小,正则化以降低模型复杂度来减少泛化误差

损失函数

  • 0-1损失函数
    在这里插入图片描述

  • 平方损失函数
    在这里插入图片描述

优化
梯度下降

  • 随机梯度下降法(增量梯度下降):每个样本都进行更新
  • 小批量随机梯度下降法

线性回归

模型

以线性回归为例
在这里插入图片描述

优化方法

  • 经验风险最小化(最小二乘法)
    模型
    在这里插入图片描述
    学习准则
    在这里插入图片描述
    优化
    在这里插入图片描述

  • 结构风险最小化(岭回归)
    学习准则
    在这里插入图片描述
    得到
    在这里插入图片描述

常见的线性回归还包括最大似然估计 、最大后验估计

常见的机器学习类型

在这里插入图片描述

如何选择一个合适的模型

  • 模型选择
    拟合能力强的模型一般复杂度会比较高,容易过拟合。
    如果限制模型复杂度,降低拟合能力,可能会欠拟合。
  • 偏差与方差分解
    在这里插入图片描述

常用的定理

没有免费午餐定理(No Free Lunch Theorem,NFL)
对于基于迭代的最优化算法,不存在某种算法对所有问题(有限的搜索空间内)都有效。如果一个算法对某些问题有效,那么它一定在另外一些问题上比纯随机搜索算法更差。
丑小鸭定理(Ugly Duckling Theorem)
丑小鸭与白天鹅之间的区别和两只白天鹅之间的区别一样大。
奥卡姆剃刀原理(Occam’s Razor)
如无必要,勿增实体

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值