![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 68
笑逐燕开
我不怕自己努力了不优秀,只怕比我优秀的人比我还努力!!!
展开
-
机器学习中的规则化范数(L0, L1, L2, 核范数) - tenos
时间 2014-05-05 13:12:00 博客园精华区原文 http://www.cnblogs.com/TenosDoIt/p/3708996.html主题 数据挖掘目录:一、L0,L1范数二、L2范数三、核范数今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则转载 2016-07-14 10:35:00 · 752 阅读 · 0 评论 -
DeepLearning.ai学习笔记——改善深层神经网络:超参数调试、正则化以及优化(二)
1.梯度消失/梯度爆炸(Vanishing/Exploding gradients) 2.神经网络的权重初始化 3.梯度的数值逼近 **4.梯度检验 5优化算法——mini-batch梯度下降** 6.优化算法——指数加权平均数 7.优化算法——指数加权平均数的偏差修正 8.动量梯度下降 9.RMSprop 10.Adam优化算法 11.学习率衰减 12.局部最优问题...原创 2018-08-02 16:13:36 · 208 阅读 · 0 评论 -
deeplearning.ai -深度神经网络优化方法
5优化算法——mini-batch梯度下降 6.优化算法——指数加权平均数 7.优化算法——指数加权平均数的偏差修正 8.动量梯度下降 9.RMSprop 10.Adam优化算法 11.学习率衰减 12.局部最优问题...原创 2018-08-04 12:39:37 · 338 阅读 · 0 评论 -
DeepLearning.ai学习笔记——改善深层神经网络:超参数调试、正则化以及优化(一)
深度学习的实践应用1.训练,验证,测试集原创 2018-07-25 17:01:51 · 266 阅读 · 0 评论 -
深度学习与计算机视觉学习笔记02—概率论&卷积
概率论条件概率和独立性 (1)条件概率是描述依赖性的,反映了一个事件是否独立 a.依赖性:P(AB)=P(A|B)P(B) b.独立性:P(AB)-P(A)P(B) (2)期望值,方差&协方差 a.期望值:变量值和其对应概率的乘积,即目标观测值的平均值 E(X)=∑i=1nxiP(xi)E(X)=∑i=1nxiP(xi)E(X) = \sum\limits_{i = 1}^...原创 2018-07-14 08:27:57 · 833 阅读 · 0 评论 -
深度学习和计算机视觉04-数学优化基础
最小值和梯度下降1优化问题就是求最小值的问题 2梯度下降: (1)梯度计算: (2)梯度下降法: a.先求出所在位置的梯度,然后取这个梯度的负方向(x沿着极小值前进的方向) b.更新,梯度乘以一个系数,用来控制步长的大小(学习率) c.终止条件:设定梯度小于某一个阈值 (3)极值和鞍点 a.鞍点是梯度为0的点 b,局部的最小值为极值...原创 2018-07-19 21:44:36 · 274 阅读 · 0 评论 -
机器学习实战笔记——贝叶斯估计
贝叶斯估计的基本思想 贝叶斯估计的实现流程 贝叶斯估计的程序编写 贝叶斯估计的应用 比较原创 2018-07-13 06:36:03 · 2386 阅读 · 0 评论 -
深度学习和计算机视觉03—PCA
主成分分析(PCA)定义如何求如何降维如何应用其他降维手段原创 2018-07-18 07:25:11 · 386 阅读 · 0 评论 -
深度学习与计算机视觉学习笔记01-线性变换和非线性变换
1.线性变换 (1)两个基本性质 a.加性:两个向量的和经过变换后等于两个向量变换后的和 b.齐性:一个向量缩放一个倍数变换等于先变换再缩放一个倍数 (2)点积和投影 a.点积::通俗意义上的内积,表示两个向量对应元素的乘积,是欧几里得的标准内积。由此可知向量的长度公式为 对于点积的理解可以从变换和缩放角度加以分析...原创 2018-07-12 07:26:13 · 9070 阅读 · 0 评论 -
机器学习实战——决策树
决策树的基本思想 (1)数据挖掘算法的一种,不需要了解具体的机器学习知识,就可以理解决策树的过程。决策树可以使数据集便于理解,类似于数据结构中树结构,根节点为选择的特征,依次为边和叶节点,边可以表示判断条件,叶节点为其他特征。适用的类型为数值型和标称型 (2)优点:计算复杂度不高,输出结果易于理解,对于中间值缺失不敏感(依靠大多数特征就可以进行判断),可以处理不相关特征数据 (3)缺点:可能...原创 2018-07-02 18:39:12 · 306 阅读 · 0 评论 -
机器学习实战笔记——kNN算法
kNN算法的基本思想 (1)测量不同特征值之间的距离进行分类,具体表述为对于一个训练样本集中每一个数据对应 一个标签,输入一个没有标签的新数据后,将新数据的每个特征与样本集中对应的特征进行比较,利用算法提取样本集中最相似数据的分类标签,通常选择样本数据集中前k个最相似的数据。 (2)优点:精度高,对异常值不敏感,无数据输入假定 (2)缺点:计算复杂度高、空间复杂度高 kNN 算法的实现过...原创 2018-07-01 18:03:45 · 235 阅读 · 0 评论 -
机器学习笔记——机器学习,人工智能,深度学习浅析
人工智能 让计算机拥有人类的感官常识,并将获得的信息进行分析处理,分析处理的过程采用机器学习算法。 比如人类通过感知周围各种信息,通过神经接收到外界的所有信息 ,传到大脑中心然后做出决策,反馈对应的神经做出决策。人工智能则是通过模仿人的感知或处理功能实现很多功能比如图像识别,语音识别,自然语言处理等。 机器学习: 利用算法分析数据,理解数据背后的含义...原创 2018-07-01 16:30:15 · 246 阅读 · 0 评论 -
学习笔记_02CNN
卷积神经网络CNN基本知识学习,梳理原创 2017-07-23 14:59:28 · 602 阅读 · 0 评论 -
学习笔记_01生成对抗网络(GANs)
本人初学关于GAN的相关知识,该博客作为整理自己学习的一个平台博客内容仅代表个人观点,如果有什么错误的地方还请各位指教,谢谢! 01发展起源 GANs(Generative Adversarial Networks)生成对抗网络,其发展的具体过程为:(1)14年,论文Generative Adversarial Nets发表 以来,生成式对抗网络 GAN 广受关注。(2)Cond原创 2017-07-22 21:47:53 · 473 阅读 · 0 评论 -
deelearning.ai学习笔记——参数调试、Batch正则化和程序框架
超参数设定(调试处理)需要处理的参数: 学习率α,动量梯度下降的参数β,选择的层数,mini-batch的大小等。其中最重要的是学习率α 如何选择调试值 (1)网格中取样点:选择参数效果好的点 (2)随机选择点(深度学习) 在进行超参数取值时,采用由粗到细的策略。具体解释为在进行取值试验时,发现某个效果最好的点,然后在这个点周围取一些点,放大这一区域,进行更加密集的取点。 选择合适...原创 2018-08-07 17:06:37 · 224 阅读 · 0 评论