机器学习为什么需要训练,训练出来的模型具体又是什么? 比喻讲解

举个栗子:

1.你可以把机器想象成一个小孩子,你带小孩去公园。公园里有很多人在遛狗。

简单起见,咱们先考虑二元分类问题。你告诉小孩这个动物是狗,那个也是狗。但突然一只猫跑过来,你告诉他,这个不是狗。久而久之,小孩就会产生认知模式。这个学习过程,
就叫“训练”。所形成的认知模式,就是”模型“。

训练之后。这时,再跑过来一个动物时,你问小孩,这个是狗吧?他会回答,是/否。这个就叫,预测

一个模型中,有很多参数。有些参数,可以通过训练获得,比如logistic模型中的权重。但有些参数,通过训练无法获得,被称为”超参数“,比如学习率等。这需要靠经验,过着grid search的方法去寻找。

上面这个例子,是有人告诉小孩,样本的正确分类,这叫有督管学习

还有无督管学习,比如小孩自发性对动物的相似性进行辨识和分类。

2.想象一下某天你去买芒果。供应商摆放了一车的芒果。你可以尽管挑选,随后店家会根据你选的芒果重量收费

作者:匿名用户
链接:https://www.zhihu.com/question/29271217/answer/44107856
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

很明显,你想挑最甜最熟的芒果(毕竟不是根据芒果质量给钱,而是芒果重量)。你会如何选芒果呢?

 

你想起你祖母曾经告诉你嫩黄色的比淡黄色的芒果甜。所以你制定了一个简单的规则:只选嫩黄色的芒果。你对比芒果颜色,选择嫩黄的,然后付钱回家,Happy ending?

Too young too simple 啊!

  • 生活是复杂滴

想象一下你回家之后,尝了一口芒果,呸!竟然不是你想象的甜!一点都不甜。然后你很沮丧,同时觉得祖母不够明智。你觉得除了颜色,应该有更多方法选甜甜的芒果。

经过大量的思考(以及品尝不同类型的芒果),你总结出一个铁则:越大颜色越嫩黄的芒果一定是甜的,而越小颜色却嫩黄的芒果有0.5的可能性是甜的。

为此你感到灰常地开心,然后把它谨记在心,准备下次买芒果的时候用。但是当你到了超市之后,你发现你最喜欢的芒果整个小镇都没有了。你只好买生产地不同的另一种芒果。此时你意识到你之前尝尽千种芒果总结的铁则已经失效。你必须从头开始尝(好幸福的买家)。从这家商店尝遍了所有类型的芒果之后,你总结了铁则2:小的、浅黄色的芒果一定是甜的!(真是不容易)。

现在,一个远亲表妹从另一个城市来拜访你。你决定用芒果招待她。但是她说她不介意芒果甜不甜,她最想吃多汁的芒果( ╯□╰ )。再一次,你运用你的经验,尝尽了牛鬼神蛇(各种各样)的芒果,然后铁则3诞生:越软的芒果越多汁。

后来,你去了世界的另一个地方。这里的芒果与你国家的天壤之别。后来铁则4呱呱坠地绿色的芒果比黄色的口感更好。

再后来,你跟一个讨厌吃芒果的人结婚了(这真是个悲伤的故事)。她更喜欢吃苹果。你去苹果市场买苹果,但是你所有的芒果铁则在这里都是废物了。与芒果类似,你根据苹果的颜色和形状以及味道来总结出一套苹果铁则。你这样做(尝了好多苹果(●'◡'●)),皆因爱她。

  • 进入计算机程序的世界

现在,想象这一切,你正在写一个计算机程序来帮助你选芒果(或你媳妇的苹果)。你将把下面的规则写出来:
if( 颜色是嫩黄 and 尺寸是大 and 卖的是自己最喜欢的芒果 )
芒果是甜哒!
if( 芒果是软的 )
此芒果多汁!
etc.

你将用这个铁则选芒果。你甚至可以把这个选芒果铁则清单发给你的弟弟,并且你确信他会帮你买到你最想要的芒果。

但是每多一次经验,在你重新审视你的铁则的时候不得不更改铁则清单。你必须了解所有影响芒果质量的错综复杂的细节。如果问题足够复杂,制定出精确的芒果规则是一件非常困难的事。而你的research可能会为你赢得芒果科学界的PhD(如果有的话)。

 

1.机器学习为什么要训练?
你可以把买芒果的人当作机器,如果没有大量调查芒果的甜度与大小和颜色的关系,买到的芒果甜不甜就是一个概率事件。在这里,调查芒果的过程就是训练。
2.训练出来的模型是什么?
训练出来的模型,就是调查出来的结果。即,越大越嫩黄并且是”你“最喜欢产地出产的芒果,也就越甜。按照这个模型来买芒果,就一定是符合”你" 的甜芒果。


 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值