监督学习初探

导读

监督学习,就如同字面意思,有人一直作为督工一直监督机器学习。

监督学习的定义

监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。

——摘自百度百科:监督学习

是不是非常非常拗口而且难懂?这里简单概括一下:

监督学习是给定一组数据作为正确答案输入计算机程序中并完成适当的训练。在训练结束后机器能够在满足一定正确率的情况下进行预测。

那么监督学习就有这么几个要点:

  • 有一组数据,这组数据必须被认定为“正确”的。即使这是你为了凑数胡乱输的一大串不知所云的数字,但依然会被认定为“正确”。

  • 进行适当的训练。不能太少,也不能太多

  • 预测的最终结果满足一定的正确率,可能正确(事件发生),也可能不正确(事件未发生)。将来的学习中你会认识到,发生与否服从二项分布 B ( 1 , p ) B(1,p) B(1,p),而发不发生的概率 p p p服从正态分布 N ( 0 , σ 2 ) N(0,\sigma^2) N(0,σ2)

举个例子:

你想要一夜暴富,但是你明白你要脚踏实地,所以你开始了一夜暴富的可行性分析。首先你收集了全球富豪的姓名年龄婚姻状况政治面貌民族家庭住址教育背景,然后找到了全球富豪祖宗三代的同样的信息。长时间的整理之后,你作出了多张图表,分别是每个人不同属性和现持有资金的离散型数据关系。然后,你精确计算出了一夜暴富的可能性,虽然几乎相当于没有。

虽然这个例子有点胡说八道,但是相信大家还是明白这个道理的。就是说,这些全球成功暴富的人,也就是以正确答案输入程序的训练集,在经过一段时间的分析,也就是适当的训练。为什么是适当呢?如果训练不够,你就会轻易地觉得自己没有希望,最终自闭。这也叫欠拟合;如果训练过当,你就会盲目自信,然后赔得内裤都没得穿。这也叫过拟合。适当训练之后,你就能够在一定正确率的情况下预测自己能不能一夜暴富。当然,这也只是说在一定的正确率下的预测,就像高中所学的,当 μ − σ < x < μ + σ \mu-\sigma<x<\mu+\sigma μσ<x<μ+σ时,发生概率为 0.6826 0.6826 0.6826什么的,是不是实际发生谁也不知道。

实际应用

觉得太飘渺了想要一个实际的例子?好嘛,那就给一个例子:淘宝

你在淘宝中点开了一个手办,然后淘宝就记录了你的浏览。之后,你的点击将会作为权重进行首页的定制化推荐。每天你都在浏览手办,慢慢的你的首页就全都是手办。

我们来回顾一下机器学习的定义:

计算机程序从经验E中学习,解决某一任务T,进行某一性能度量P,通过P测定在T上的表现因经验E而提高。

——Tom Mitchell

我们对照这个定义来说明这个例子:

  • 淘宝的任务就是把你最可能访问的东西放在首页。也就是说:将任务T记为“定制化首页”;

  • 你每点击一次手办,淘宝就会记录你的浏览,并记录“手办“这个类别的权重。同样,如果是口红、防晒霜、Switch、外套等等都会记录下来。这就是计算机用来预测的数据。也就是说:将经验E记为“浏览商品

  • 如果你突然退坑了,再也不看手办,而是去看计算机书籍、内存、硬盘、显卡等等,给你推荐的手办再也没有点开,同时给你推荐的电脑配件的浏览权重直线上升,足够长的时间之后权重远大于手办。于是你的首页变了,从全是手办变成了全是电脑配件。从这里就能知道,测定浏览权重就是测定P

于是,根据淘宝的例子简单地概括就是:作为监督者,不停地监督机器对于你个人浏览记录的学习过程,最终让机器学习到你的购买倾向,从而完成首页的定制化

是不是能理解一点了呢?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ordinary_brony

代码滞销,救救码农

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值