机器学习(1)机器学习类型和机器学习的主要概念

0.前提

深度学习(Deep Learing)是机器学习(Machine Learning)领域中的一个新的研究方向,在如今的时代研究深度学习的大模型是十分热门的。我不知道有多少人有关注到最近openai的事件啊,说个比较让我惊讶的事情,一直在支持我做一些实验的老师今年在ICCV的A区发文章,直接给我看傻了,平常经常看到老师骑着电车在学校里面跑。既然深度学习是机器学习的一个子集,那想要入门深度学习,学习机器学习那就很有必要了。这篇文章也是为了在未来更好的解剖了解我的智能小车。

1.机器学习的类型

机器学习包含监督学习、无监督学习、强化学习等。

1.监督学习

·监督学习是指利用有标签数据进行训练从而得到预测模型的学习任务。换句话说就是训练的数据有标签,输入数据x预测y。

·监督学习算法主要分两类:离散的,那就是分类算法(classification);连续的,那就是回归算法(regression)。

1.分类算法

分类指基于预测模型,推理出离散的的输出值:0或1。

2.回归算法

回归指基于预测模型对未知的输出值推测出一个连续值得结果。

2.无监督学习

·无监督学习里的数据只有输入属性,没有标签。

·无监督学习算法是基于一种“物以类聚”的思想:聚类算法和关联算法

1.聚类

聚类指将对象分组聚类。

2.关联

关联指数据库中找联系。

3.强化学习

强化学习用于描述和解决智能体在环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。这有点类似下棋时的博弈论。

2.机器学习的主要概念

机学习的方法由模型、损失函数、优化算法、模型评估指标等几个要素构成。

1.模型

机器学习要先考虑使用的模型。模型类别大致分为概率模型和非概率模型。

1.概率模型

·在监督学习中:概率模型表示为P(y|x)。x是输入,y是输出。

·在无监督学习中:概率模型表示为P(z|x)。x是输入,z是输出。

·决策树、朴素贝叶斯、隐马尔科夫模型、高斯混合模型属于概率模型

2.非概率模型

·在监督学习中:非概率模型表示为y=f(x)。x是输入,y是输出。

·在非监督学习中:非概率模型表示为z=f(x)。x是输入,z是输出。

·感知机、支持向量机、KNN、AdaBoost、K-means以及神经网络均属于非概率模型

非概率模型又可按函数线性性分为线性模型和非线性模型。

线性模型
感知机、线性支持向量机、KNN、K-means是线性模型。
非线性模型
核支持向量机、AdaBoost、神经网络属于非线性模型。

2.损失函数

在机器学习中常见的损失函数有4种。有没有很熟悉的感觉?

损失函数数值越小,模型性能越好。平均损失被称为经验风险。经验风险最小化,得出全局损失函数最优解问题:

_{f}^{min}\textrm{}\frac{1}{N}\sum_{n=1}^{N}L(y_{a},f(x_{n}))

当样本数量够大时,根据大数定理(既伯努利大数定理,当进行大量实验时,事件的频率趋近于概率),经验风险会近似于模型的期待风险,此时经验风险最小化,有较好的学习效果。但当样本数量不够时,利用经验风险最小化就会“过拟合”,在原基础上加入控制模型复杂度的正则项:

_{f}^{min}\textrm{}\frac{1}{N}\sum_{n=1}^{N}L(y_{a},f(x_{n}))+\lambda J (f)

J(f)表示对模型复杂度的惩罚。模型越复杂,J(f)越大;模型越简单,J(f)越小。\lambda是正则化系数,是正常数,用于平衡经验风险和模型复杂度。结构风险小的模型在经验风险和模型复杂度都小时,训练数据和测试数据有较好的拟合。

3.优化算法

算法指模型学习中的具体计算方法。基于参数模型参数模型构建的我统计学习问题为最优化问题,有显式的解析解。优化方法有梯度下降法、牛顿法、拟牛顿法、ADAM等。

4.模型评估

损失函数给定,基于模型训练数据的误差和测试数据的误差作为模型评估的标准。

测试误差的具体定义:E_{test}=\frac{1}{N'}\sum_{n=1}^{N'}L(y_{n},\widehat{f}(x_{n}))

N'为测试数据数量,L(y_{n},\widehat{f}(x_{n}))是损失函数,y_{n}代表真实标签,\widehat{f}(x_{n})代表预测标签。若模型学习的效果好,训练误差和测试误差接近一致。

3.机器学习的学习基础

1.高数-导数

高数课本中对导数的定义:设函数y=f(x)在点x_{0}的某个领域内有定义,当自变量xx_{0}处取得增量\Delta x(点x_{0}+\Delta x仍在该领域内)时,相应地,因变量取得增量\Delta y=f(x_{0}+\Delta x)-f(x_{0});如果\Delta y\Delta x之比当\Delta x\rightarrow0时的极限存在,那函数y=f(x)x_{0}处可导,称该极限为函数y=f(x)x_{0}处的导数——f'(x_{0})=_{\Delta x\rightarrow 0}^{lim}\frac{\Delta y}{\Delta x}=_{\Delta x}^{lim}\frac{f(x_{0}+\Delta x)-f(x_{0})}{\Delta x}

以下就是我之前学高数时做的笔记记录的导数的运算公式:

2.高数-泰勒公式

3.线代-行列式 

4.线代-矩阵 

5.线代-求导 

线代的求导在我翻看了我的所有线代笔记资料后,发现大学课堂上是不讲线代求导的,那这里我就放出非本人笔记的内容了:

6.概率与数理 -随机事件与概率

我是大二上半学期学的概率与数理,我印象比较深刻的就是在12月分初的时候因为疫情提前放假了,所有的考试都推迟到了下半学期进行,下半学期开学几周内我要考十几门试(别问我为什么不在家复习!我不觉得有多少人有毅力在家复习,更何况当时大家阳着。),我差点die。

7.概率与数理-古典概型与几何概型 

8.概率与数理-条件概率 

9.概率与数理-全概率

 10.概率与数理-各种分布

 10.概率与数理-期望与方差

在这一章笔记里我自己记的笔记比较乱,只有我自己才能看得懂,我就不放出来了。我换个东西放出来。

4.总结 

在这里我强烈推荐大家去看一下吴恩达老师的课程,非常感谢大佬能将老师的课程翻译过来,当然,少看中文翻译能更好的克服语言障碍。

(强推|双字)2022吴恩达机器学习Deeplearning.ai课程_哔哩哔哩_bilibili

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
机器学习的主要类型有监督学习、无监督学习和强化学习。 首先是监督学习,它通过给定输入数据和对应的标签进行训练,以建立输入数据和标签之间的映射关系。监督学习的目标是通过已有数据训练模型,然后对未知数据进行预测。常见的监督学习算法有线性回归、支持向量机、决策树和神经网络等。 其次是无监督学习,无监督学习不需要标签来训练模型,它的目标是通过分析数据的内在结构和模式,对数据进行聚类、降维等任务。常见的无监督学习算法有聚类算法如K均值聚类、层次聚类,以及降维算法如主成分分析等。 最后是强化学习,强化学习是通过与环境进行交互来进行学习。强化学习的目标是通过试错过程,通过奖励和惩罚来调整模型的行为,以达到最大化长期累积奖励的目标。常见的强化学习算法有Q-learning、策略梯度等。 除了以上主要类型,还有半监督学习和迁移学习等其他类型。半监督学习是介于监督学习和无监督学习之间的一种学习方式,它利用少量的标注数据和大量的未标注数据进行学习。迁移学习则是将已经学到的知识应用到新的问题上,通过迁移已有知识来加速新的任务的学习过程。 总而言之,机器学习的主要类型包括监督学习、无监督学习和强化学习,它们各自有不同的学习目标和应用场景,可以根据具体任务的需求选择合适的类型进行学习和应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值