Machine Learning
ZQ_ZHU
这个作者很懒,什么都没留下…
展开
-
机器学习能力自测题—看看你的机器学习知识能打几分?不容错过的机器学习试题与术语
一直苦于没有办法自测一下机器学习知识掌握程度,最近看到一篇Ankit Gupta写的博客:Solutions for Skilltest Machine Learning : Revealed。有40题机器学习自测题,马上可以看看你的机器学习知识能打几分?顺便还能查漏补缺相关术语,以及SVM, 隐马尔科夫, 特征选择, 神经网络, 线性回归等众多知识点.以下是试题, 附答案:Q1:在一个n...转载 2019-10-25 11:17:05 · 1383 阅读 · 0 评论 -
主成分分析(PCA)原理详解
“微信公众号”本文同步更新在我的微信公众号里,地址:https://mp.weixin.qq.com/s/Xt1vLQfB20rTmtLjiLsmww本文同步更新在我的知乎专栏里面:主成分分析(PCA)原理详解 - Microstrong的文章 - 知乎https://zhuanlan.zhihu.com/p...转载 2019-10-04 16:45:14 · 1886 阅读 · 0 评论 -
机器学习中的范数规则化之(二)核范数与规则项参数选择
机器学习中的范数规则化之(二)核范数与规则项参数选择zouxy09@qq.comhttp://blog.csdn.net/zouxy09 上一篇博文,我们聊到了L0,L1和L2范数,这篇我们絮叨絮叨下核范数和规则项参数选择。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。...转载 2019-03-26 17:19:22 · 328 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09@qq.comhttp://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较...转载 2019-03-26 17:18:35 · 291 阅读 · 0 评论 -
来自西弗吉利亚大学li xin整理的CV代码合集(三)
Links to other communities’ reproducible research effortGeostatistics toolbox mgstat DACEError Correcting Codes (ECC)Face recognition software at face-rec.orgComputer graphics graphi...转载 2019-03-21 12:59:03 · 426 阅读 · 0 评论 -
来自西弗吉利亚大学li xin整理的CV代码合集(二)
Low rank methodsEfficient Computation of Robust Low-Rank Matrix Approximations in the Presence of Missing Data using the L1 Norm codeLow-Rank Matrix Recovery and Completion via Convex Optimiz...转载 2019-03-21 12:55:17 · 844 阅读 · 0 评论 -
ReLU、LReLU、PReLU、CReLU、ELU、SELU
ReLU tensorflow中:tf.nn.relu(features, name=None)LReLU(Leaky-ReLU) 其中aiai. tensorflow中:tf.nn.leaky_relu(features, alpha=0.2, name=None)PReLU 其中aiai时,采用的是带动量的更新方式(momentum)。 tensorflow中:没找到...转载 2018-10-17 10:39:00 · 687 阅读 · 0 评论 -
机器学习算法总结
转自:https://blog.csdn.net/weixin_40411446/article/details/81836322 ~~~~~·个人整理,如需转载,请说明并备注,不甚感激~~~~~~(这篇文章我很早发布在简书上,不用简书好多年了,哈哈哈,居然上了热搜,特复制在CSDN上供大家参考,为秋招攒点人品)suxuer简书原文地址BAT机器学习面试系...转载 2018-09-05 13:12:31 · 4144 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09@qq.comhttp://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都转载 2017-11-27 10:01:40 · 225 阅读 · 0 评论 -
正则化方法:L1和L2 regularization、数据集扩增、dropout
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上转载 2017-11-01 15:40:51 · 195 阅读 · 0 评论 -
谱聚类算法(Spectral Clustering)
谱聚类算法(Spectral Clustering)谱聚类(Spectral Clustering, SC)是一种基于图论的聚类方法——将带权无向图划分为两个或两个以上的最优子图,使子图内部尽量相似,而子图间距离尽量距离较远,以达到常见的聚类的目的。其中的最优是指最优目标函数不同,可以是割边最小分割——如图1的Smallest cut(如后文的Min cut), 也可以是分割规转载 2017-07-23 22:41:28 · 774 阅读 · 0 评论 -
谱聚类算法及其代码(Spectral Clustering)
简介文章将介绍谱聚类(spectral clustering)的基本算法,以及在matlab下的代码实现。介绍内容将包括:从图分割角度直观理解谱聚类谱聚类算法步骤数据以及实现代码本文将不会涉及细节化的证明和推导,如有兴趣可参考july大神的文章从拉普拉斯矩阵说到谱聚类.对谱聚类的理解这一节将从图分割聚类的角度直观理解谱聚类。不过,因为本人是从事社交媒体分析的,将从一种社会关转载 2017-07-23 22:52:16 · 650 阅读 · 0 评论 -
从拉普拉斯矩阵说到谱聚类
http://blog.csdn.net/v_july_v/article/details/40738211 从拉普拉斯矩阵说到谱聚类0 引言 11月1日上午,机器学习班 第7次课,邹讲聚类(PPT),其中的谱聚类引起了自己的兴趣,邹从最基本的概念:单位向量、两个向量的正交、方阵的特征值和特征向量,讲到相似度图、拉普拉斯矩阵,最后讲谱转载 2017-07-23 23:02:14 · 731 阅读 · 0 评论