MOOC机器学习(浙大课程)第一章

MOOC机器学习(浙大课程)第一章:引言

笔记

  1. 机器学习(Machine Learning):
    第一个定义:机器学习是这样的领域,它赋予计算机学习的能力,(这种学习能力)不是通过显著式编程获得的。
    第二个定义:一个计算机程序被称为可以学习,是指它能够针对某个任务T和某个性能指标P,从经验E中学习。这种学习的特点是,它在T上的被P所衡量的性能,会随着经验E的增加而提高
  2. 机器学习算法:按照任务是否需要和环境交互获得经验,将机器学习分为监督学习和强化学习。
    (1) 监督学习:
    传统的监督学习:每一个训练数据都有对应的标签。包括:支持向量机、人工神经网络、深度神经网络
    非监督学习:所有训练数据都没有对应的标签(聚类、EM算法、主成分分析)
    半监督学习:训练数据中一部分有标签,一部分没有标签
    将监督学习分为分类和回归,其中分类的标签的离散的值,回归的标签是连续的值
    (2) 强化学习
  3. 机器学习算法过程:机器学习的重点是假设在已经提取好特征的前提下,如何构造算法获得更好的性能。
    第一步:提取特征(Feature Extraction),指通过训练样本获得的,对机器学习任务有帮助的多维度数据。
    第二步:不同的算法对特征空间做不同的划分
    第三步:获得不同的结果
    研究不同的应用场景下应该采取哪种算法,并研究新的机器学习算法以便适应新的场景。
  4. 没有免费午餐定理(No Free Lunch Theorem)
    任何一个预测函数,如果在一些训练样本上表现好,那么必然在另一些训练样本上扁平线不好,如果不对数据在特征空间的先验分布有一定假设,那么表现好与表现不好的情况一样多。
    没有任何情况下都最好的机器学习算法。

    在设计机器学习算法的时候有一个假设:在特征空间上距离接近的样本,他们属于同一个类别的概率会高。

这个假设有道理吗?道理是从以前的事实中来的,人可以通过类比将这些道理推广到对未来的预测。

时候可能出错呢?很有可能。
如果不对特征空间的先验分布有假设,那么所有算法的表现都是一样的。

不能片面地夸大这个定理

机器学习的本质是通过有线的已知数据,在复杂的高纬特征空间中预测未知样本的属性和类别。再好的算法也存在犯错的风险,没有放之四海而皆准的最好算法。

测试

单元小测
1单选(2分)
以下学习策略中,使用的训练数据只有部分存在标签的是
A. 无监督学习
B. 以上都是
C. 监督学习
D. 半监督学习
正确答案:D

2单选(2分)
下面符合特征选择标准的是
A. 以上均不对
B. 越少越好
C. 选择能够反映不同事物差异的特征
D. 越多越好
正确答案:C

3单选(2分)
给定一定数量的红细胞、白细胞图像以及它们对应的标签,设计出一个红、白细胞分类器,这属于()问题
A. 半监督学习
B. 无监督学习
C. 以上都可以
D. 监督学习
正确答案:D

4单选(2分)
给定一定数量的红细胞、白细胞图像,但是并不知道图像与标签的对应关系,设计一个红白细胞分类器,这属于()问题
A. 无监督学习
B. 以上都可以
C. 半监督学习
D. 监督学习
正确答案:A

5单选(2分)
“没有免费的午餐定理”告诉我们
A. 我们不能对问题有先验假设
B. 对于一个特定的问题,任何算法都是一样好的
C. 设计好的算法是徒劳的
D. 没有可以适应一切问题的算法
正确答案:D

是一个新坑,不知道自己能不能坚持下去了嘤嘤嘤。

在这里插入图片描述

评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值