机器学习术语

迭代次数

想象你在玩一个拼图游戏,每次尝试把一块拼图放对位置就是一次操作。迭代次数就好比你尝试拼这个拼图的总次数。

在机器学习中,模型不断地调整参数来更好地拟合数据,每一次这样的调整就是一次迭代。

如果迭代次数太少,模型可能还没有充分学习到数据的规律,就像你只尝试了几次拼图,很可能还没完成拼图。

但如果迭代次数太多,可能会浪费时间,而且可能会出现过拟合,就像你一直在反复摆弄已经拼好的部分,反而可能把拼图弄乱了。

假设你在学习骑自行车。一开始你可能摇摇晃晃,总是摔倒。每一次你尝试骑一段距离并调整自己的姿势和平衡就是一次迭代。如果迭代次数太少,比如你只骑了几次就放弃了,那你可能永远也学不会骑自行车。但如果一直不停地骑,迭代次数过多,可能会让你感到非常疲惫,而且可能也不会有更多的进步,因为你可能已经掌握了基本的技巧。

学习率

用拼图游戏来比喻,学习率就像是你每次调整拼图位置的幅度大小。

如果学习率太大,你可能一下子把拼图放得离正确位置很远,很难找到正确的位置,在机器学习中就可能导致模型无法收敛,无法找到最优的参数。

如果学习率太小,你每次调整的幅度非常小,可能需要非常非常多的尝试才能完成拼图,在机器学习中就意味着模型训练会非常缓慢,需要很长时间才能达到较好的效果。

用学骑自行车的例子,学习率就像是你每次调整自己骑车方式的幅度。

如果学习率太大,比如你一下子大幅度改变把手的方向或者用力踩踏板,很可能会失去平衡再次摔倒。在机器学习中,模型也可能因为学习率太大而无法稳定地学习数据的规律。

如果学习率太小,就像你每次只微微调整一点点,那可能需要很长时间才能真正学会骑自行车。同样,在机器学习中,模型的训练速度会非常缓慢。

综上所述,学习率就是参数调整幅度。

批次

把批次想象成你每次从一大盒拼图中拿出来拼的一小堆拼图。在机器学习中,我们不能一次性把所有的数据都拿来训练模型,而是分成一个个批次。每次用一个批次的数据来更新模型的参数。这样做的好处是可以减少内存的使用,并且让模型的训练更加稳定。如果批次太大,可能会导致内存不足,而且模型可能会被一些异常的数据影响较大。如果批次太小,模型的更新可能会比较频繁,但是可能会花费更多的时间来完成整个训练过程。

想象你在整理一屋子的书。你不能一次性把所有的书都搬到书架上整理,而是分成一批一批地搬。每次搬一批书进行整理,就相当于在机器学习中用一个批次的数据来训练模型。如果批次太大,比如你一次搬太多书,可能会累得搬不动,而且在整理的时候也可能会混乱。在机器学习中,会导致内存占用过高,模型也可能难以处理这么多数据。如果批次太小,比如每次只搬一两本书,那可能要来回跑很多趟,花费很多时间。在机器学习中,模型的更新会很频繁,但整体训练时间会很长。

那么模型是学习一个批次迭代一次吗?

不一定是学习一个批次就迭代一次哦。 在实际情况中,迭代的次数和批次的关系可以有多种设置方式。

有时候可能处理完一个批次就进行一次迭代,这种方式被称为在线学习(online learning),每次只使用少量数据进行更新,比较适合数据源源不断到来的场景。

但是在很多情况下,会将多个批次的数据处理完后再进行一次迭代。比如可以先将整个数据集分成若干个小批次,依次处理完一定数量的批次后,再根据这些批次数据的总体效果来更新模型参数,进行一次迭代。 所以模型不一定是学习一个批次就迭代一次,具体取决于所采用的学习算法和设置。

损失函数

用来衡量模型预测值与真实值之间的差异程度。就好比你在玩射箭游戏,损失函数就是你射出的箭与靶心的距离,距离越小表示模型的表现越好。

优化算法

用于调整模型参数以最小化损失函数。常见的有梯度下降法等。比如在爬山过程中选择不同的路径策略去找到山顶,这个寻找的策略就是优化算法。

正则化

一种防止过拟合的方法,通过在损失函数中加入惩罚项,限制模型的复杂度。例如给模型加上一些约束,让它不要过于 “任性” 地去拟合数据。

  • 21
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值