- 博客(12)
- 资源 (7)
- 收藏
- 关注
原创 台湾国立大学机器学习技法.听课笔记(第八讲):Adaptive Boosting[漸次提昇法]
台湾国立大学机器学习技法.听课笔记(第八讲):Adaptive Boosting[漸次提昇法]一, Motivationof Boosting(提升法的动机)
2015-09-28 12:43:24 903
原创 台湾国立大学机器学习技法.听课笔记(第七讲):Blending(混合) and Bagging(自举)
台湾国立大学机器学习技法.听课笔记(第七讲):Blending(混合) and Bagging(自举)一,Motivation of Aggregation(融合模型的动机)1,提出Aggregation假设有T个朋友告诉你将来几天股市的假设,那我们到底选哪一个人的模型好呢?我们有这么四种选择方法:所以我们得到的混合模型(AggregationM
2015-09-22 23:31:27 2690
原创 台湾国立大学机器学习技法.听课笔记(第六讲):Support Vector Regression
台湾国立大学机器学习技法.听课笔记(第六讲):Support Vector Regression一,Kernel Ridge Regression1.提出线性岭回归问题我们上一讲学习了解决Two-level的问题时,我们可以用两种方法解决:我们上一讲是的Representer Theorem的基本形式是:那么ridge regre
2015-09-20 22:29:56 2384
原创 台湾国立大学机器学习技法.听课笔记(第五讲) :Kernel Logistic Regression
台湾国立大学机器学习技法.听课笔记(第五讲) :Kernel Logistic Regression一,Soft-Margin SVM as Regularized Model我们开始本lecture前,先对以前的知识进行回顾:其中,ξ_n是松弛变量,它的特点是:所以我们可以把Soft-Margin SVM写成:这个形式是
2015-09-17 20:12:48 1306 3
转载 周志华点评机器学习会议
这篇文章的内容是南京大学周志华老师对国际学术会议(主要是计算机、数据挖掘、机器学习方面)的点评,对于从事学术研究的人,持续关注相关的研究方向的会议内容,可以掌握最新的研究动态。原文按照tier1、tier2、tier3逐个列出了每类会议的全称,接着是会议的影响力,最后是周老师对这些会议的点评。为便于阅读,我把第3部分对会议的点评调整到会议名称列表之后。另外一个疑问是,tier和rank有啥区别,t
2015-09-15 20:01:01 2688
原创 台湾国立大学机器学习技法.听课笔记(第四讲) :Soft-Margin Support Vector Machine
台湾国立大学机器学习技法.听课笔记(第四讲) :Kernel Support Vector Machine一,Motivation and Primal Problems我们从第一讲到第三讲,都是说Hard-Margin SVM,要求全部的点都要进行正确划分,太完美了;也许有些点是noise,但是还是Hard-MarginSVM。 我们现在就想能不能
2015-09-15 09:15:59 1748
转载 【matlab】matlab文件操作fopen,fseek,fread,fclose等
文件操作是一种重要的输入输出方式,即从数据文件读取数据或将结果写入数据文件。MATLAB提供了一系列低层输入输出函数,专门用于文件操作。1、文件的打开与关闭 1)打开文件在读写文件之前,必须先用fopen函数打开或创建文件,并指定对该文件进行的操作方式。fopen函数的调用格式为:fid=fopen(文件名,‘打开方式’)说明:其中fid用于存储文件句柄
2015-09-14 16:10:54 36322 2
原创 台湾国立大学机器学习技法.听课笔记(第三讲) :Kernel Support Vector Machine
台湾国立大学机器学习技术.听课笔记(第三讲) :Kernel Support Vector Machine一,kernel trick(kernel技巧)1,kernel 的引出对偶SVM的目标是:但是正如上一讲中对偶问题讲到的,我们还隐藏计算q_(n,m)时要依据d~来看SVM的计算量。我们算q_(n,m) 时是先转换后计算,那我们想能不能用其他方式减
2015-09-10 13:03:42 916
原创 台湾国立大学机器学习技术.听课笔记(第二讲) :Dual Support Vector Machine
台湾国立大学机器学习技术.听课笔记(第二讲):Dual Support Vector Machine一,Motivate of Dual SVM(对偶SVM的动机)上一讲我们知道要想假设尽可能的少,边界尽可能的精细,我们可以采用non-linear SVM。即Large-MarginHyperplane + numerous feature transform:
2015-09-08 10:11:44 1144
转载 关于拉格朗日乘子法与KKT条件的相关数学概念
关于拉格朗日乘子法与KKT条件的相关数学概念作者:@wzyer原文出处:http://www.moozhi.com/topic/show/54a8a261c555c08b3d59d99
2015-09-06 20:11:17 1041
原创 台湾国立大学机器学习技术.听课笔记(第一讲):Support Vector Machine
台湾国立大学机器学习技术.听课笔记(第一讲):Support Vector Machine一,course introducation 我们机器学习技术将要学习的主要是围绕特征转换来讲,把维数降低,我们说他是支撑向量机(SVM);找出比较具有预测性的特征,把他们混合起来,我们把它称为逐步增强法(Adaptive Boosting);找出数据中隐含的信息,做进一步的处理,
2015-09-02 22:22:45 2270
原创 梁启超写给梁思成及儿女的信
梁启超写给梁思成及儿女的信介绍:梁启超先生不但是我国历史上著名的思想家、文学家和政治家,在教育子女方面也是极有成就,九个子女中的思顺、思成、思永、思忠、思庄、思达、思礼分别成为了我国现当代贡献杰出的诗词学家、建筑学家、考古学家、军官、图书馆学家、经济学家及火箭自动控制专家。九人中有梁思成、梁思永、梁思礼三人是中国科学院院士,一个家庭中出了三个院士这也是极少见的。梁家后代能取得如此辉
2015-09-02 20:34:48 7356
GitExtensions-2.49-SetupComplete.msi
2017-10-10
Git-2.14.1-64-bit.exe
2017-10-10
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人