机器学习笔记(1-2章)
归纳偏好
引导算法确立正确的偏好的一般性原则,“奥卡姆剃刀”。即“若有多个假设与观察一致,则选最简单的那个”。
事实上,归纳偏好对应了学习算法本身所做出的的关于“什么样的模型更好”的假设。
“没有免费午餐”定理(NO Free Lunch Theorem,简称NFL定理):无论算法a多聪明,算法b多笨拙,他们的期望性能是相同的。
NFL定理有一个重要的前提:所有“问题”出现的机会相同,或所有问题同等重要。所以NFL定理的寓意是让我们清楚的认识到。脱离具体问题,空泛的谈论“什么学习算法更好”毫无意义。
要谈论算法的相对优劣,必须针对具体的学习问题,在某些问题上表现好的算法,在另一些问题上却不尽人意,学习算法的归纳偏好与问题是否相匹配,往往会起决定性作用。
机器学习提供数据分析能力,云计算提供数据处理能力,众包提供数据标注能力。
自然科学的研究的驱动力归纳起来无外是人类对宇宙本源、万物本质、生命本性、自我本识的好奇。
过拟合
过拟合:有很多因素可能导致过拟合,其中最常见的情况是由于学习能力过于强大,以致于把训练样本所包含的不太一般的特性都学到了,而欠拟合则通常是由于学习能力低下造成。
评估方法
1.留出法(常见做法是将大约2/3~4/5的样本用于训练,剩余样本用于测试)
2.交叉验证法(K倍交叉验证,当K=m时,得到一个交叉验证法的一个特例:留一法)
3.自助法(数据集少)
性能度量
1.错误率和精度
2.查准率、查全率和F1
3.ROC和AUC
4.代价敏感错误率与代价曲线