![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 54
海淼林
这个作者很懒,什么都没留下…
展开
-
Scala实现神经网络 ANN , 偏函数式风格
为了加深理解,用Scala实现全链接的二分类神经网络, 风格偏函数式, 没有使用循环, 不使用var变量, 需要使用Breeze线性代数库.原创 2017-04-11 20:14:39 · 792 阅读 · 5 评论 -
最小二乘回归树Golang多线程实现
用golang实现了一个多线程的回归树原创 2017-07-04 22:25:59 · 855 阅读 · 0 评论 -
SVM 支持向量机(1) 硬间隔最大化
SVM (Support Vector Machine)- 支持向量机主要从<<统计学习方法>>中整理原创 2017-03-02 22:02:07 · 1151 阅读 · 0 评论 -
最小二乘回归树Python实现
最小二乘回归树生成基本原理及Python实现原创 2017-06-13 19:41:16 · 2601 阅读 · 0 评论 -
主成分分析(PCA降维)与最小二乘-原理以及详细推导
重新整理了PCA相关的原理和推导原创 2017-06-27 21:47:12 · 11799 阅读 · 3 评论 -
PCA降维 python实现
主成分分析,Principal Component Analysis计算协方差矩阵,由于是hermitian的,所以100%可正交对角化而且特征值一定非负求出特征值特征向量以后,取特征值比较大的那几个方向构成线性空间,把数据投影上去就OK了import osimport numpy as npimport matplotlib.pylab as pltdef dataL原创 2016-11-11 23:45:20 · 4229 阅读 · 0 评论 -
简化版SMO算法Scala实现
简化版SMO算法, 主要从Python机器学习实战里面转换过来, 风格比较命令式, 大量的var变量原创 2017-03-25 15:14:53 · 721 阅读 · 0 评论 -
SVM 支持向量机(2) 软间隔最大化与核方法
软间隔支持向量机, 核方法, 核诡计原创 2017-03-10 18:07:46 · 1156 阅读 · 0 评论 -
SVM 支持向量机(3) SMO算法小结
SMO算法 (Sequential Minimal Optimization)原创 2017-03-21 22:57:28 · 299 阅读 · 0 评论 -
通俗易懂的Xgboost原理推导
xgboost是回归树的集成,关于回归树可以参考之前写的最小二乘回归树: https://blog.csdn.net/u013648367/article/details/73194537通常情况下, 机器学习的目标任务是最小化损失函数. 损失函数通常会有如下的形式:loss=∑il(yi^,yi)+Regularizationloss=∑il(yi^,yi)+Regulariza...原创 2018-03-28 13:06:49 · 1881 阅读 · 0 评论