- 博客(6)
- 收藏
- 关注
转载 GBDT原理详解
GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力(generalization)较强的算法。近些年更因为被用于搜索排序的机器学习模型而引起大家关注。
2016-05-26 13:10:20 11669
原创 算法原理与分析之分治法
一.目录1.算法基本原理2.经典问题二.分治法基本原理 分而治之,先将原问题的规模下降,分解为子问题,此所谓“分”,然后解决子问题,此为“治”。 分治法的基本思想是将一个规模为n的原问题分解为k个规模较小的子问题,这些子问题互相独立且与原问题相同。递归地解这些子问题,然后将子问题的解合并为原问题的解。 分治法的伪代码: v divide_and_
2016-05-25 23:54:18 6592
原创 mysql导出表到CSV文件方法及提示错误[Err] 1290 - The MySQL server is running with the --secure-file-priv option解决办法
1.导出表到CSV文件方法 select * from table_name into outfile 'C:/ProgramData/MySQL/MySQL Server 5.7/xx.csv' FIELDS TERMINATED BY ',' OPTIONALLY ENCLOSED BY '"' LINES TERMINATED B
2016-05-25 19:53:37 23774
转载 ImageNet Classification with Deep Convolutional Neural Networks 阅读笔记
这篇发表于NIPS2012的文章,是Hinton与其学生为了回应别人对于deep learning的质疑而将deep learning用于ImageNet(图像识别目前最大的数据库)上,最终取得了非常惊人的结果,其结果相对原来的state of the art好了非常多(前5选错误率由25%降低为17%)。ImageNet目前共包含大约22000类,15兆左右的标定图像。其中,目前最常
2016-05-03 14:36:29 553
原创 图像处理中的卷积总结
一:什么是卷积离散卷积的数学公式可以表示为如下形式:f(x) = - 其中C(k)代表卷积操作数,g(i)代表样本数据, f(x)代表输出结果。举例如下:假设g(i)是一个一维的函数,而且代表的样本数为G = [1,2,3,4,5,6,7,8,9]假设C(k)是一个一维的卷积操作数, 操作数为C=[-1,0,1]则输出结果f(x)可以表示为 F=[
2016-05-03 13:31:58 21418 1
转载 DeepLearnToolbox及CNN代码实现
使用的代码:DeepLearnToolbox ,下载地址:点击打开,感谢该toolbox的作者==========================================================================================今天是CNN的内容啦,CNN讲起来有些纠结,你可以事先看看convolution和pooling(sub
2016-05-02 19:18:07 1409
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人