- 博客(12)
- 收藏
- 关注
原创 通俗易懂的Xgboost原理推导
xgboost是回归树的集成,关于回归树可以参考之前写的最小二乘回归树: https://blog.csdn.net/u013648367/article/details/73194537通常情况下, 机器学习的目标任务是最小化损失函数. 损失函数通常会有如下的形式:loss=∑il(yi^,yi)+Regularizationloss=∑il(yi^,yi)+Regulariza...
2018-03-28 13:06:49 1882
原创 Scala实现神经网络 ANN , 偏函数式风格
为了加深理解,用Scala实现全链接的二分类神经网络, 风格偏函数式, 没有使用循环, 不使用var变量, 需要使用Breeze线性代数库.
2017-04-11 20:14:39 792 5
原创 PCA降维 python实现
主成分分析,Principal Component Analysis计算协方差矩阵,由于是hermitian的,所以100%可正交对角化而且特征值一定非负求出特征值特征向量以后,取特征值比较大的那几个方向构成线性空间,把数据投影上去就OK了import osimport numpy as npimport matplotlib.pylab as pltdef dataL
2016-11-11 23:45:20 4229
原创 kmeans++ Python 实现
自学记录 # -*- coding: utf-8 -*-"""Created on Tue Nov 8 20:37:54 2016@author: tt"""import osimport numpy as npimport matplotlib.pylab as pltdef dataLoader(file): return np.array(
2016-11-09 22:32:53 2433
原创 归并排序 迭代版
自学记录public class MergeSort { public static void main(String[] args){ int[] b={4,4,1,2,-9,10,101,2,23,9,-40,13,14,5,-8,2,1}; mergeSort(b); SortTest.show(b); }
2016-11-03 21:20:23 440
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人