- 博客(8)
- 资源 (15)
- 收藏
- 关注
转载 SCI、EI收录的计算机类外文期刊
( 有“*”是同时被《EI》收录的期刊)1、 738B0006 ISSN 0018-8646 IF:2、560 “*”IBM Journal of Research and Development. 《国际商用机器公司研究与开发杂志》, 1957. 4/yr. IBM Corp. Old Orchard Rd, Armonk, NY, 10504.http://elib.c
2013-08-26 10:32:31 10267
转载 计算机和控制领域SCI收录期刊及其影响因子
031 Computer Applications & Cybernetics(Note: No Journal Titles In This Catalog)032 Computer Science, Artificial IntelligenceRanking Journal Title Impact Factor#1 Neural Computation 1.921#
2013-08-26 10:31:10 1267
转载 偏最小二乘法回归(Partial Least Squares Regression)
偏最小二乘法回归(Partial Least Squares Regression)[pdf版本]偏最小二乘法回归.pdf1. 问题这节我们请出最后的有关成分分析和回归的神器PLSR。PLSR感觉已经把成分分析和回归发挥到极致了,下面主要介绍其思想而非完整的教程。让我们回顾一下最早的Linear Regression的缺点:如果样例数m相比特征数n少(m(n*n矩阵)的秩小于特
2013-08-25 06:05:51 3113
转载 独立成分分析(Independent Component Analysis)
1. 问题:1、上节提到的PCA是一种数据降维的方法,但是只对符合高斯分布的样本点比较有效,那么对于其他分布的样本,有没有主元分解的方法呢?2、经典的鸡尾酒宴会问题(cocktail party problem)。假设在party中有n个人,他们可以同时说话,我们也在房间中一些角落里共放置了n个声音接收器(Microphone)用来记录声音。宴会过后,我们从n个麦克风中得到了一组数据,i表
2013-08-25 06:00:23 1261
转载 主成分分析(Principal components analysis)-最小平方误差解释
接上篇3.2 最小平方误差理论假设有这样的二维样本点(红色点),回顾我们前面探讨的是求一条直线,使得样本点投影到直线上的点的方差最大。本质是求直线,那么度量直线求的好不好,不仅仅只有方差最大化的方法。再回想我们最开始学习的线性回归等,目的也是求一个线性函数使得直线能够最佳拟合样本点,那么我们能不能认为最佳的直线就是回归后的直线呢?回归时我们的最小二乘法度量的是样本点到直线的坐标轴距离。
2013-08-25 05:58:46 1139
转载 主成分分析(Principal components analysis)-最大方差解释
在这一篇之前的内容是《Factor Analysis》,由于非常理论,打算学完整个课程后再写。在写这篇之前,我阅读了PCA、SVD和LDA。这几个模型相近,却都有自己的特点。本篇打算先介绍PCA,至于他们之间的关系,只能是边学边体会了。PCA以前也叫做Principal factor analysis。1. 问题真实的训练数据总是存在各种各样的问题:1、 比如拿到一个汽车的样本,里面既
2013-08-25 04:43:28 1766
原创 matlab mex中C++内存全局共享和持久化
为提高matlab程序运行速度,经常将核心程序编写为mex动态链接库;然而,经常情况下,在mex函数中分配的内存或句柄希望在mex函数调用完成后在后续函数调用中能够共享而不被释放,本程序方法为解决该问题提供了一种实现方案。利用mex的C实现方案,为实时应用提供了解决方案。 #include #include //全局内存空间static mxArray *persi
2013-08-05 13:30:06 3451
Delphi使用Fann神经网络的接口文件及DLL
2010-03-28
Delphi调用GNU Science Library(GNU1.8)的接口和DLL文件
2010-03-28
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人