![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Mr_Napping
这个作者很懒,什么都没留下…
展开
-
损失函数和风险函数
损失函数度量模型预测一次的好坏,即模型预测一次其预测值与真实值之间的差别。风险函数度量模型平均意义上预测能力的好坏,即模型预测n次预测值与真实值差别的平均。记f(X)为模型的输出预测值,Y为对应输入的真实值,则损失函数为f(x)和Y的非负实值函数,记为L(Y,f(x))。常用的损失函数有如下几种:1.0-1损失函数0-1损失函数通过比较真实值与预测值是否相等进行度量模型的好坏,...原创 2018-09-18 19:08:36 · 2249 阅读 · 0 评论 -
机器学习正则化
正则化项可以是模型参数向量的范数首先,范数是指推广到高维空间中的模,给定向量x=(x1,x2,x3,...,xn),常用的向量的范数如下:L0范数:向量非零元素的个数L1范数:向量各个元素绝对值之和 ,也被称为“稀疏规则算子”L2范数:向量各个元素的平方和然后求平方根,也被称为“岭回归”和“权值缩减”Lp范数::向量各个元素绝对值的p次方求和然后求1/p次方L范数:向量各个...原创 2018-09-18 19:08:44 · 153 阅读 · 0 评论 -
证明二类分类问题的泛化误差上界
泛化误差上界:对二分类问题,当假设空间是有限个函数的集合F={f1,f2,f3,...,fn}时,对任意一个函数,至少以概率,以下不等式成立:其中,不等式右端第一项为训练误差,训练误差越小,泛化误差就越小第二项为N的单调递减函数,当N趋于无穷时其趋于0,且假设空间包含的函数越多,其值越大以下为证明过程:首先,因为证明过程要用到Hoeffding不等式,叙述如下:设是...原创 2018-09-18 19:58:37 · 1979 阅读 · 2 评论 -
感知机对偶形式理解
内容转载于知乎:如何理解感知机学习算法的对偶形式? - Zongrong Zheng的回答 - 知乎 https://www.zhihu.com/question/26526858/answer/136577337转载 2018-09-19 13:56:05 · 675 阅读 · 0 评论 -
李航《统计学习方法》朴素贝叶斯分类代码实现及解析
参考博客贝叶斯估计(python 版) import numpy as nptrain_data = np.array([[1, "S", -1], [1, "M", -1], [1, "M", 1], [1, "S", 1], ...原创 2018-09-20 19:57:47 · 618 阅读 · 0 评论 -
秋招笔试记录
20190817腾讯笔试第1题栅栏由n根栏杆组成,第i根栏杆的长度为hi,需要连续拔掉k根栏杆拔掉的最小长度总和def lenth_min(k,h): n=len(h) min=0 #先计算前k根栏杆的长度和 for i in range(k): min=min+h[i] #采用滑动窗口的思想依次滑动,每滑动一次丢掉一个栏杆长度...原创 2019-08-19 10:11:41 · 141 阅读 · 0 评论