概率数理统计
chenXin@Euler
黄金分割点、白银分割点
展开
-
《Machine Learning Yearning》下载与学习
这本书被称为机器学习向往或者是机器学习秘籍。原创 2019-10-13 21:47:00 · 172 阅读 · 0 评论 -
fatal err :Eigen/Dense(/Core): No such file or directory
当你安装好你的eigen3的时候,你首先要创建相应的链接关系所以找到你的eigen3所在的位置我的是在/usr/include所以我会cd /usr/include之后创建链接sudo ln -sf eigen3/Eigen Eigensudo ln -sf eigen3/unsupported unsupported这样的话你再去执行g++ eigenxxx.cpp这...原创 2018-11-19 14:50:30 · 2026 阅读 · 0 评论 -
毕达哥拉斯(勾股定理)
毕达哥拉斯定理 勾股定理 毕达哥拉斯定理就是勾股定理,也叫做商高定理。 勾三股四弦5⃣️ 勾股定理和欧式距离是比较像的,当欧式距离针对的是平面空间的时候,欧式距离就是勾股定理。...原创 2018-08-25 15:14:47 · 2543 阅读 · 0 评论 -
机器学习F1_score(1)分类模型检验
交叉验证来获得模型的准确性,算法 1)查准率和召回率 查准率反应的是对不对,找到的对不对的比率 召回率反应的是全不全,找到的全不全的比率 正确性和完整性分别对应查准率和召回率 ,,,,,,,,,,,,,,,被正确识别为某类别的样本数 查准率=——————————————- ,,,,,,,,,,,,,,,被识别为该类别的样本数 正确性:对不对 ,,,,,,,,,,,,,,被正确识别...原创 2018-08-21 16:14:33 · 3243 阅读 · 0 评论 -
机器学习之聚类
衡量聚类距离的方式有很多,常用的方式有欧式距离和曼哈顿距离两种。对于两个n维数据Xi,Xj,以下是两种距离的计算公式, 上图中的k代表的是维度数,最高是n维,而不是幂次数 图片裁剪的像素尺度不好,导致图片只能倒放,造成的不便还请多多包涵! 原型聚类:K-means 聚类算法有很多种,常用的聚方法包括原型聚类,密度聚类,层次聚类几种。 原型聚类是指聚类结构能通过一组原型刻画的聚类,原...原创 2018-08-21 10:36:46 · 483 阅读 · 0 评论 -
机器学习集成模型
下面示例的是boosting集成,bagging集成,stacking集成 详细的信息,明天早晨起床再添加吧!困了先睡了翻译 2018-08-20 23:29:49 · 3437 阅读 · 0 评论 -
特征选择算法(机器学习)
1)特征选择理论 一份数据有很多属性,但有些属性可能很关键,另一些没有用。从给定特征集中选择出相关特征子集的过程称为特征选择。特征选择是一个重要的数据预处理过程。一般在正式的数据处理之前进行。 特征选择是一个重要的数据预处理过程,他不仅可以降低数据维数,以节省时间,简化分析,规避“维度灾难”,更可以去除无关特征,抓住主要矛盾,使分析结果更加准确。同时,采用特征选择算法还便于理解和可视化数据,降...原创 2018-08-20 23:04:25 · 4779 阅读 · 0 评论 -
机器学习降维技术(unsupervision/supervision)
线性将维技术本质是把数据投影到低维线性子空间,通过特征的线性组合来降维,其代表方法有主成分分析(PCA),线性判别技术(LDA)等。原始观察空间中的样本具有极大的信息冗余,样本的高维数引发分类器设计的“维度灾难”。将维可以在一定程度上解决这个问题,比如说样本数400,但是特征属性有40000个,这就是一个维度灾难的实际现象。 缓解维度灾难的一个重要途径是降维,即将高纬度空间的数据缩放到低纬度空...原创 2018-08-20 18:26:59 · 606 阅读 · 0 评论 -
概率统计(probability statistics)
下面是概率的常见参数和分布函数 https://www.cnblogs.com/SevnChen/p/5320949.html 在我看来概率是一个通过模型找规律 已知分布求概率 已知总体服从xxx分布,推断当条件概率,推断贝叶斯概率,转化到具体事务上大数定理,中心极限定理 统计是给你规律,找模型的一个过程 已知对应的概率,推断服从什么分布 假设检验 统计量 点估计 区间估计 ...原创 2018-08-17 10:53:57 · 666 阅读 · 0 评论 -
线性回归中 给损失函数加的正则项L1和L2
正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1-norm和ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。L1正则化和L2正则化可以看做是损失函数的惩罚项。 L1正则化是指权值向量w中各个元素的绝对值之和,通常表示为||w||1 L2正则化是指权值向量w中各个元素的平方和然后再...原创 2018-08-22 21:51:13 · 3254 阅读 · 0 评论 -
特征抽取(萃取extra)和特征选择
总述 特征选择和特征抽取其实这些都是将维的范畴。特征选择是指选择全部特征的一个子集作为特征向量:特征抽取是指通过已有特征的组合建立一个 新的特征子集,主成份分析方法(principa1component analysis, PCA)就是通过原特征的线性组合建立新的特征子集的一种特征抽取方法。 特征抽取:是指通过已有特征的组合(变换)建立一个新的特征子集。在众多的组合方法当中,线性组合(变换)...原创 2018-08-19 09:54:22 · 1461 阅读 · 0 评论