机器学习
文章平均质量分 95
SYSU_BOND
这个作者很懒,什么都没留下…
展开
-
一图+一句话理解机器学习算法之线性判别分析(Linear Discriminant Analysis, LDA)
线性判别分析(LDA)将数据点进行投影,使得同类数据投影空间尽可能相近,异类数据在投影空间尽可能远,是常用的降维和分类手段,如下图所示:原创 2018-04-18 11:38:58 · 523 阅读 · 0 评论 -
深入浅出理解模型方差偏差噪声与泛化误差的关系
基本关系泛化误差 = 方差 + 偏差 + 噪声方差:表示在不同数据集上,模型预测输出的波动情况。我们知道如果给定不同的数据,我们模型会得到不一样的预测结果,比如在线性回归问题中,我们要预测y=wx+by=wx+by=wx+b,比如我们有100个数据点{(x1,y1),(x2,y2),…,(x100,y100)}{(x1,y1),(x2,y2),…,(x100,y100)}\{(x_1,y_...原创 2018-04-13 19:15:36 · 2601 阅读 · 0 评论 -
一图+一句话理解机器学习算法之支持向量机(Support Vector Machine, SVM)
支持向量机(SVM)常用的分类算法,思想是找到一条分割曲线,使得类的数据点到该直线最近距离(这个距离也就是常说的间隔)最大化,这些离直线最近的点就被称为支持向量。基于这个想法的目的在于使得这两个类离分类边界最远,若数据有微小的偏移也不会有太大影响。如下图,有“+”,“-”两类的数据点,SVM的目的是希望找到如下中间的直线,使得间隔最大化。 ...原创 2018-04-19 21:07:35 · 1275 阅读 · 0 评论 -
一图+一句话理解机器学习算法之支持向量回归(Support Vector Regression, SVR)
支持向量回归(SVR)传统回归方法当且仅当回归f(x)完全等于y时才认为预测正确,如线性回归中常用(f(x)−y)2(f(x)−y)2(f(x)-y)^2来计算其损失。而支持向量回归则认为只要f(x)与y偏离程度不要太大,既可以认为预测正确,不用计算损失,具体的,就是设置阈值αα\alpha,只计算|f(x)−y|>α|f(x)−y|>α|f(x)-y|>\alpha的数据点的loss...原创 2018-04-19 21:44:22 · 2757 阅读 · 0 评论 -
最好的正则表达式学习整理
转自高赞GitHub:https://github.com/ziishaned/learn-regex什么是正则表达式?正则表达式是一组由字母和符号组成的特殊文本, 它可以用来从文本中找出满足你想要的格式的句子.一个正则表达式是在一个主体字符串中从左到右匹配字符串时的一种样式.“Regular expression"这个词比较拗口, 我们常使用缩写的术语"regex"或"regexp”...转载 2019-09-14 17:52:34 · 524 阅读 · 1 评论