算法
文章平均质量分 94
hadoove
这个作者很懒,什么都没留下…
展开
-
数据挖掘浅论(-)
数据挖掘浅论原创 2015-01-28 11:59:29 · 773 阅读 · 0 评论 -
xgboost详解
版权声明:如需转载,请注明出处http://blog.csdn.net/a819825294目录(?)[-]序xgboost vs gbdt原理自定义损失函数指定gradhessXgboost调参工程实现优化代码走读pythonR对于xgboost的简单使用xgboost中比较重要的参数介绍Tip参考文献文章内容可能会相对比较多,读者可以点击转载 2017-06-08 15:55:05 · 742 阅读 · 0 评论 -
逻辑斯蒂回归(对数几率回归)
逻辑斯蒂回归(对数几率回归)二元分类与Logistic回归逻辑斯蒂回归(周志华书中把他叫做对数几率回归)不是用于回归而是用于分类,是用来解决二分类的问题(Binary Classification)。以Andrew Ng课程中的例子为例,我们要训练出一个模型能够自动的判别照片中是否有猫。这里我们就可以将图片的向量化然后通过logistic回归进行分类。模型给定一张没有便签的图片,我们将其向量化,表示原创 2017-10-27 21:31:31 · 587 阅读 · 0 评论 -
理解线性代数矩阵
孟岩的《理解矩阵》三篇:http://blog.csdn.net/myan/article/details/647511http://blog.csdn.net/myan/article/details/649018http://blog.csdn.net/myan/article/details/1865397两篇英文:https://betterexpl原创 2017-11-15 13:03:50 · 305 阅读 · 0 评论 -
EM算法之高斯混合模型(二)
EM参数求解我们将GMM带入θ(g+1)\theta^{(g+1)}中 θ(g+1)=argmaxθ∫zln{P(X,z|θ)P(z|X,θ(g))}dz(6.1)\theta^{(g+1)} = {argmax}_\theta\int_zln\left\{P(X,z|\theta)P(z|X,\theta^{(g)})\right\}dz \quad(6.1) 其中 P(Z|X,θ(g)原创 2017-11-23 17:26:53 · 311 阅读 · 0 评论 -
EM算法之高斯混合模型(一)
单个高斯模型如果我们有一堆数据,其分布属于一个高斯模型,那么有 p(X)=N(x|μ,Σ)=1(2π)m|Σ|‾‾‾‾‾‾‾‾√exp[−12(x−μ)TΣ−1(x−μ)](1.1)p(X) = N(x|\mu,\Sigma) = \frac1 {\sqrt{(2\pi)^m|\Sigma|}}exp[-\frac1 2(x-\mu)^T\Sigma^{-1}(x-\mu)] \quad(1.原创 2017-11-20 21:56:14 · 683 阅读 · 0 评论 -
基于keras的深度学习——分类
使用keras的深度学习来分类白葡萄酒还是红葡萄酒首先介绍一下数据类型:1.这个数据集包含了1599种红酒,4898种白酒; 2.输入数据特征: 1 - fixed acidity 2 - volatile acidity 3 - citric acid 4 - residual sugar 5 - chlorides 6 - free s原创 2018-01-08 16:57:14 · 9687 阅读 · 3 评论