机器学习训练模型是什么 训练是什么 模型是什么


先从有监督问题谈起,形式上,无论解析还是非解析,有监督问题都可看作根据已知数据在全体映射空间F中寻找最优映射f*(x)=y,其中x为输入,y为输出。寻找符合已知数据的映射很简单,难点在于理论上来说,未知输入等可能对应任意输出,这样一来预测则成为无稽之谈(No Free Lunch)。

举个例子,求解找规律题目“1, 2, 3, 4, ( ), 6”,一般人都会在括号里填5。
然而理论上来说这个括号里可以是任意数字,比如4。
不知道大家是否考虑过凭什么“每次增1”是规律,而“先增三次1然后保持不变然后再持续增1”就不可以是规律。
那是因为我们不知不觉中使用了题目并未给出的一些前提假设,
比如奥卡姆剃刀原则,“每次增1”看起来明显比后者更简洁优雅,更容易被人接受。

解释这个概念就不能不提到Inductive Bias,意指在求解学习问题前必须拥有的一系列前提假设。当我们选定一个广义上的model,其实可以看作选定了一组inductive bias。特定的model/inductive bias可以在浩瀚的全体映射空间F中圈定出一个子空间\^{F},然后通过inductive bias提供的方式(一般为某种loss function)寻找符合已知数据的model参数,从而又在\^F中进一步缩小搜索范围直至确定最优次优映射\^f(f*可能根本不在\^F中)。


所以应了那句话,“All models are wrong, but some are useful.” 得出什么样的答案,很大程度上取决于我们使用什么样的假设。

 

那么此问题的答案是:模型是求解学习问题的一系列前提假设/inductive bias,根据已知数据寻找模型参数的过程就是训练,最终搜索到的映射\^f被称为训练出来的模型。

 

注:

1. 这里所谓的“最优”,“次优”,“符合”等描述是根据预先设定好的测量标准/目标函数进行
阐释的,属于model/inductive bias的一部分。

2. 之所以说“广义上的model”,是因为一般形式上会对prior distribution,model(实际指映射
表达式)以及loss function等进行区分,这里为方便阐述,不加区分的算成广义上
的model,因其均为inductive bias。


 

无监督问题大致上也类似,前提假设甚至会表现得更为明显,有一则段子:

@南大周志华

“聚类的故事:老师拿来苹果和梨,让小朋友分成两份。小明把大苹果大梨放一起,小个头的放一起,老师点头,恩,体量感。小芳把红苹果挑出来,剩下的放一起,老师点头,颜色感。小武的结果?不明白。小武掏出眼镜:最新款,能看到水果里有几个籽,左边这堆单数,右边双数。老师很高兴:新的聚类算法诞生了”

 

PS: 人类的各种错觉,比如视错觉,也可看成是一系列人脑硬编码的inductive bias,用以辅助学习方便解决现实问题,所以各假设都具有其对应的适用范围。

参考:
机器学习物语(1):世界观设定 « Free Mind
Inductive bias
University of Edinburgh MLPR 2012 Lecture - Introduction

作者:知乎用户
链接:https://www.zhihu.com/question/29271217/answer/45665100
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

 

_____________________________________________________________________________________________________

你可以把机器想象成一个小孩子,你带小孩去公园。公园里有很多人在遛狗。

简单起见,咱们先考虑二元分类问题。你告诉小孩这个动物是狗,那个也是狗。但突然一只猫跑过来,你告诉他,这个不是狗。久而久之,小孩就会产生认知模式。这个学习过程,
就叫“训练”。所形成的认知模式,就是”模型“。

训练之后。这时,再跑过来一个动物时,你问小孩,这个是狗吧?他会回答,是/否。这个就叫,预测

一个模型中,有很多参数。有些参数,可以通过训练获得,比如logistic模型中的权重。但有些参数,通过训练无法获得,被称为”超参数“,比如学习率等。这需要靠经验,过着grid search的方法去寻找。

上面这个例子,是有人告诉小孩,样本的正确分类,这叫有督管学习

还有无督管学习,比如小孩自发性对动物的相似性进行辨识和分类。

作者:刘从新
链接:https://www.zhihu.com/question/29271217/answer/83272460
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

  • 6
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习训练模型是指使用深度神经网络对大量数据进行训练,以学习数据中的模式和特征,并用于解决各种机器学习和人工智能任务的过程。训练模型的目标是通过调整模型的参数,使其能够准确地预测或分类新的未见过的数据。 在深度学习中,训练模型通常包括以下几个步骤: 1. 数据准备:收集和准备用于训练的数据集,包括对数据进行清洗、标注和划分等操作。 2. 模型选择:选择适合任务的深度神经网络模型,如卷积神经网络(CNN)、循环神经网络(RNN)或变换器(Transformer)等。 3. 模型构建:根据选择的模型架构,在编程框架中构建模型,并定义模型的层次结构和参数。 4. 损失函数定义:选择适当的损失函数来衡量模型预测结果与真实标签之间的差异,常见的损失函数包括均方误差(MSE)和交叉熵损失(Cross-Entropy)等。 5. 参数优化:使用反向传播算法和优化器来更新模型参数,以最小化损失函数。常用的优化算法包括梯度下降法(Gradient Descent)和Adam优化器等。 6. 模型训练:将准备好的数据输入模型中,通过多次迭代训练,不断调整模型参数,使其逐渐适应数据的特征和模式。 7. 模型评估:使用验证集或测试集对训练好的模型进行评估,计算模型在新数据上的准确率、精确率、召回率等指标。 8. 模型调优:根据评估结果,对模型进行调优,如调整超参数、增加正则化等,以提高模型的性能和泛化能力。 9. 模型应用:将训练好的模型用于实际应用中,对新的未知数据进行预测或分类。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值