机器学习
文章平均质量分 86
teengad
这个作者很懒,什么都没留下…
展开
-
自学脚手架——“Data-Driven Science and Engineering” by steven L. brunton(Chapter 5.0 - 5.4)
文章目录5.1 Feature Selection and Data Mining5.1 Feature Selection and Data Mining原创 2022-05-20 18:19:29 · 541 阅读 · 0 评论 -
自学脚手架——“Data-Driven Science and Engineering” by steven L. brunton(Chapter 1.9)
文章目录1.6 Eigenfaces Example1.7 Truncation and Alignment1.8 Randomized Singular Value Decomposition1.9 Tensor Decompositions and N-Way Data Arrays1.6 Eigenfaces Example1.7 Truncation and Alignment1.8 Randomized Singular Value Decomposition1.9 Tensor Deco原创 2022-05-14 04:36:07 · 294 阅读 · 0 评论 -
自学脚手架——“Data-Driven Science and Engineering” by steven L. brunton(Chapter 4.0 - 4.7)
文章目录4.1 Classic Curve Fitting4.1 Classic Curve Fitting在优化问题的方法中,有一个常用的Levenberg–Marquardt algorithm,和这种方法在matlab的Curve Fitting Tool中的Custom Equation使用: matlab的fit函数的算法中也包含了这种算法:Algorithm to use for the fitting procedure, specified as t原创 2022-05-10 01:05:37 · 910 阅读 · 0 评论 -
自学脚手架——“Data-Driven Science and Engineering” by steven L. brunton(三)
文章目录3.2 Compressed Sensing3.6 Sparse Representation3.2 Compressed SensingCompressed Sensing翻译过来为压缩感知,Terrance Tao(陶哲轩)和Emmanuel Candes其原本为了:Interestingly, the incredibly important collaboration between Emmanuel Candès and Terrance Tao began with them原创 2022-05-09 22:03:38 · 431 阅读 · 0 评论 -
自学脚手架——“Data-Driven Science and Engineering” by steven L. brunton(二)
文章目录在P63的段落中有一段代码for kappa=1:length(df)-1dfFD(kappa)=(f(kappa+1)-f(kappa))/dx;enddfFD(end+1) = dfFD(end);%% Derivative using FFT (spectral derivative)fhat = fft(f);kappa = (2pi/L)[-n/2:n/2-1];**kappa = fftshift(kappa); % Re-order fft frequencies原创 2022-05-02 20:33:51 · 736 阅读 · 0 评论 -
自学脚手架——“Data-Driven Science and Engineering” by steven L. brunton(Chapter 1.1 - 1.8)
A=imread('F:\BaiduSyncdisk\desktop\图片1.png');X=double(rgb2gray(A)); % Convert RBG->gray, 256 bit->double.nx = size(X,1); ny = size(X,2);imagesc(X), axis off, colormap gray%%[U,S,V] = svd(X);%%%5,20,100for r=[5 20] % Truncation value .原创 2022-04-19 20:42:29 · 1910 阅读 · 0 评论 -
表示定理(representer theorem)
表示定理是统计学习中的一则定理,用于表明再生核 Hilbert 空间上正则化风险函数的最小值,可表示为在核函数的线性组合。实际应用举例在 L2 正则化问题上:表示定理是指任意一个 L2 正则化的问题,其最佳 w* 都可以用 βn 与 Zn 线性组合得到。表示定理的意义简化了正则化的经验风险最小化问题; 将无限维最小化问题降低至搜索最优系数的三维向量,然后可以通过标准函数最小化算法求解; 为一般机器学习问题推广到可实现算法提供理论基础。...原创 2021-04-25 23:00:20 · 3456 阅读 · 0 评论