自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

转载 浅谈算法和数据结构: 十 平衡查找树之B树

浅谈算法和数据结构: 十 平衡查找树之B树转自:http://www.cnblogs.com/yangecnu/p/Introduce-B-Tree-and-B-Plus-Tree.html前面讲解了平衡查找树中的2-3树以及其实现红黑树。2-3树种,一个节点最多有2个key,而红黑树则使用染色的方式来标识这两个key。维基百科对B树的定义为“在计算机科学中,B树(B-

2017-08-13 15:44:36 411

转载 浅谈算法和数据结构: 九 平衡查找树之红黑树

浅谈算法和数据结构: 九 平衡查找树之红黑树转自:http://www.cnblogs.com/yangecnu/p/Introduce-Red-Black-Tree.html前面一篇文章介绍了2-3查找树,可以看到,2-3查找树能保证在插入元素之后能保持树的平衡状态,最坏情况下即所有的子节点都是2-node,树的高度为lgN,从而保证了最坏情况下的时间复杂度。但是2-3树

2017-08-13 15:27:59 385

转载 浅谈算法和数据结构: 八 平衡查找树之2-3树

浅谈算法和数据结构: 八 平衡查找树之2-3树转自:http://www.cnblogs.com/yangecnu/p/Introduce-2-3-Search-Tree.html前面介绍了二叉查找树(Binary Search Tree),他对于大多数情况下的查找和插入在效率上来说是没有问题的,但是他在最差的情况下效率比较低。本文及后面文章介绍的平衡查找树的数据结构能

2017-08-13 12:42:26 378

转载 Adaboost 算法的原理与推导

Adaboost 算法的原理与推导转自:http://www.360doc.com/content/14/1109/12/20290918_423780183.shtml0 引言    一直想写Adaboost来着,但迟迟未能动笔。其算法思想虽然简单“听取多人意见,最后综合决策”,但一般书上对其算法的流程描述实在是过于晦涩。昨日11月

2017-08-12 16:14:17 462

转载 各种分类算法比较

转自:http://bbs.pinggu.org/thread-2604496-1-1.html1决策树(Decision Trees)的优缺点决策树的优点:一、           决策树易于理解和解释.人们在通过解释后都有能力去理解决策树所表达的意义。二、           对于决策树,数据的准备往往是简单或者是不必要的.其他的技术往往要求先把数据一般化,

2017-08-12 15:55:20 538

转载 协同过滤推荐算法的原理及实现

转自:http://www.sohu.com/a/65218858_116235协同过滤推荐算法是诞生最早,并且较为著名的推荐算法。主要的功能是预测和推荐。算法通过对用户历史行为数据的挖掘发现用户的偏好,基于不同的偏好对用户进行群组划分并推荐品味相似的商品。协同过滤推荐算法分为两类,分别是基于用户的协同过滤算法(user-based collaboratIve filtering),和基于

2017-08-12 15:55:11 807

转载 机器学习算法总结--EM

转自:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html   EM是我一直想深入学习的算法之一,第一次听说是在NLP课中的HMM那一节,为了解决HMM的参数估计问题,使用了EM算法。在之后的MT中的词对齐中也用到了。在Mitchell的书中也提到EM可以用于贝叶斯网络中。下面主要介绍EM的整个推导过程。

2017-08-11 18:45:05 375

转载 机器学习算法总结--GBDT

转自:http://blog.csdn.net/lc013/article/details/56667157参考如下机器学习(四)— 从gbdt到xgboost机器学习常见算法个人总结(面试用)xgboost入门与实战(原理篇)简介GBDT是一个基于迭代累加的决策树算法,它通过构造一组弱的学习器(树),并把多颗决策树的结果累加起来作为最终的预测输出。

2017-08-11 17:23:04 1224

转载 机器学习算法总结--提升方法

转自:http://blog.csdn.net/lc013/article/details/56481016参考自:《统计学习方法》浅谈机器学习基础(上)Ensemble learning:Bagging,Random Forest,Boosting简介提升方法(boosting)是一种常用的统计学习方法,在分类问题中,它通过改变训练样本的权重,学习多个分类器,

2017-08-11 17:16:13 518

转载 机器学习算法总结--K均值算法

转自:http://blog.csdn.net/lc013/article/details/56283261参考自:《机器学习》机器学习&数据挖掘笔记_16(常见面试之机器学习算法思想简单梳理)K-Means Clustering斯坦福大学公开课 :机器学习课程简介K-均值是最普及的聚类算法,算法接受一个未标记的数据集,然后将数据集聚类成不同的组。K

2017-08-11 16:38:52 903

转载 机器学习算法总结--K近邻

转自:http://blog.csdn.net/lc013/article/details/55810204参考文章:《统计学习方法》机器学习常见算法个人总结(面试用)机器学习系列(9)_机器学习算法一览(附Python和R代码)简介k近邻(KNN)是一种基本分类与回归方法。其思路如下:给一个训练数据集和一个新的实例,在训练数据集中找出与这个新实例最

2017-08-11 16:29:25 425

转载 机器学习算法总结--朴素贝叶斯

转自:http://blog.csdn.net/lc013/article/details/55656512这次需要总结的是朴素贝叶斯算法,参考文章:《统计学习方法》机器学习常见算法个人总结(面试用)朴素贝叶斯理论推导与三种常见模型朴素贝叶斯的三个常用模型:高斯、多项式、伯努利简介朴素贝叶斯是基于贝叶斯定理与特征条件独立假设的分类方法。贝叶斯定理是基

2017-08-11 16:20:58 548

转载 机器学习算法总结--SVM

转自:http://blog.csdn.net/lc013/article/details/55195523简介SVM是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。或者简单的可以理解为就是在高维空间中寻找一个合理的超平面将数据点分隔开来,其中涉及到非线性数据到高维的映射以

2017-08-11 15:27:00 772

转载 机器学习算法总结--随机森林

转自:http://blog.csdn.net/lc013/article/details/55100913简介随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。它是由多棵CART(Classification And Regression Tree)构成的。对于每棵树,其使用的训练集是从总的训练集中有放回采样出来的,这意味着总训练集中有些样本可能多次出现在一棵

2017-08-11 15:25:02 769

转载 机器学习算法总结--决策树

转自:http://blog.csdn.net/lc013/article/details/55048641简介定义:分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。结点有两种类型:内部结点和叶结点。内部结点表示一个特征或属性,叶结点表示一个类。决策树学习通常包括3个步骤:特征选择、决策树的生成和决策树的修剪。决策树学习本质上是从

2017-08-11 15:06:06 486

转载 机器学习算法总结--线性回归和逻辑回归

转自:http://blog.csdn.net/lc013/article/details/550024631. 线性回归简述在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合(自变量都是一次方)。只有一个自变量的

2017-08-11 14:51:45 625

转载 TensorFlow学习笔记----TF生成数据的方法

正常情况下,使用tf.initialize_all_variables()初始化变量,在完全构建好模型并加载之后才运行这个操作。生成数据的主要方法如下1)如果需要利用已经初始化的参数给其他变量赋值TF的变量有个initialized_value()属性,就是初始化的值,使用方法如下:# 原始的变量weights = tf.Variable(tf.random_normal([784,

2017-08-09 14:56:57 423

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除