![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 50
孤狼北望
究天人之际,通古今之变,成一家之言。
展开
-
机器学习(一)
一、机器学习定义机器学习:致力于研究如何通过计算的手段,利用经验来改善系统自身的性能。(计算机科学是研究“算法”的学问;机器学习是研究“学习算法”的学问)二、分类监督学习:从给定的训练数据集中学习出一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学习的训练集要求是包括输入和输出,也可以说是特征和目标。训练集中的目标是由人标注的。常见的监督学习算法包括回归分析和统计分类。监督...原创 2018-10-13 14:44:05 · 616 阅读 · 0 评论 -
机器学习之集成学习
一、 概述1.1 定义:通过构架多个学习器完成学习任务。1.2 分类:1.2.1 学习器分类: 1.2.2 集成学习方法分类:1.3 集成学习模型:从模型可知,集成学习的主要问题为:①获得个体学习器 ②将个体学习器集合成强学习器(模型中的结合模块)1.4 结果产生原则:投票法(即学习器少数服从多数)二、Boosting算法2.1 原理图:Bo...原创 2018-10-18 19:48:11 · 410 阅读 · 0 评论 -
范数理解(0范数,1范数,2范数)
刚刚结束,若有错误请多多指教。转载自http://www.zhihu.com/question/20473040/answer/102907063可以从函数、几何与矩阵的角度去理解范数。我们都知道,函数与几何图形往往是有对应关系的,这个很好想象,特别是在三维以下的空间内,函数是几何图像的数学概括,而几何图像是函数的高度形象化,比如一...转载 2018-10-22 10:25:53 · 33825 阅读 · 6 评论 -
范数通俗理解
作者:自由之畔链接:https://www.zhihu.com/question/21868680/answer/389440726来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 我也在找答案,目前我学到的是(这里先讲向量范数,不讲矩阵范数,但是大同小异,矩阵范数用得较多的也是从向量得到的诱导范数):所有人都说范数可以理解为在一个空间里两点的距离,或...转载 2018-10-22 10:54:37 · 7276 阅读 · 10 评论 -
机器学习之参数估计
1.参数估计:矩估计样本统计量设X1,X2…Xn…X1,X2…Xn… k阶样本中心矩 (k=2时即方差)Mk=1n∑i=1n(Xi−X¯¯¯¯)kMk=1n∑i=1n(Xi−X¯)k1.1矩估计 那么随机变量的矩和样本的矩,有什么关系? 换个提法:...转载 2018-10-17 15:23:53 · 369 阅读 · 0 评论 -
机器学习之聚类(一)
一、 机器学习概述1.1 监督学习与无监督学习监督学习:基于给定的数据数据与分类训练分类器以期达到比较好的分类效果。(Logistic回归、决策树、SVM)无监督学习:根据数据进行建模,对样本进行分类(通过对无标记训练样本的学习来揭示数据的内在性质以及规律,为进一步的数据分析提供基础)。1.2 聚类聚类属于无监督学习的一种。通过将数据集中的样本划分为若干个不想交的子集实现对...原创 2018-10-21 21:12:57 · 325 阅读 · 0 评论 -
机器学习之聚类(二)
漫谈:机器学习中距离和相似性度量方法  在机器学习和数据挖掘中,我们经常需要知道个体间差异的大小,进而评价个体的相似性和类别。最常见的是数据分析中的相关分析,数据挖掘中的分类和聚类算法,如 K 最近邻(KNN)和 K 均值(K-Means)等等。根据数据特性的不同,可以采用不同的度量方法。一般而言,定义一个距离函数 d(x,y), 需要满足下面几个准则:1...转载 2018-10-21 21:25:28 · 1429 阅读 · 0 评论 -
信息熵的通俗理解
先抛出信息熵公式如下:其中p(xi)代表随机事件xi发生的概率再谈谈信息量信息量就是对信息多少的衡量,就像重量用kg,时间用s一样,我们使用信息量对一个事件或者几句话里面包含的信息进行度量其中概率越小的事件携带的信息量越大。比如 对象分手 这件事肯定没有 北京地震 来的震撼。从上面这句话可以得出,信息量随着概率增加递减,但是衡量...原创 2018-10-29 16:29:06 · 1708 阅读 · 0 评论