![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习概念
金小虾
请叫我静静!
展开
-
贝叶斯变换
基础概念:(1)联合概率P(AB)或者P(A,B):在整个事件中,A,B同时发生的概率。(2)条件概率P(A|B):在B发生的情况下,A发生的概率。P(B|A):在A发生的情况下,B发生的概率。(3)边缘概率P(A):整个事件中,A发生的概率P(B):整个事件中,B发生的概率(4)联合概率、条件概率、边缘概率的关系在整个事件中,共有以下五种情况:X=1,Y=1;X=2,Y=1;X=1,Y=2;X=2,Y=2X=3,Y=1;定义:A事件为X=1;B事件为Y=2P(A|B)=1原创 2020-09-28 19:22:52 · 2042 阅读 · 0 评论 -
一篇文章搞懂非极大值抑制(non-maximum suppression,NMS)
https://zhuanlan.zhihu.com/p/64423753https://blog.csdn.net/xiexu911/article/details/80609298?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf&depth_1-utm_source=distribute.pc_relevant_t0.none-task-b.原创 2020-08-26 14:20:15 · 498 阅读 · 0 评论 -
CNN中的padding参数和卷积后图片的大小
padding参数的作用是决定在进行卷积或池化操作时,是否对输入的图像矩阵边缘补0,‘SAME’ 为补零,‘VALID’ 则不补,其原因是因为在这些操作过程中过滤器可能不能将某个方向上的数据刚好处理完,如下所示:当步长为5,卷积核尺寸为6×6时,当padding为VALID时,则可能造成数据丢失(如左图),当padding为SAME时,则对其进行补零(如右图)出处:https://www.cnblogs.com/White-xzx/p/9497029.html...原创 2020-08-27 14:47:56 · 849 阅读 · 0 评论 -
一篇文章搞懂Batch Normalization批标准化
Batch Normalization 是近些年深度学习的重要成果,实践证明其优先性和重要性,深度学习是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》的导读。首先介绍机器学习的一个重要概念:IID独立同分布假设,就是假设训练数据和测试数据是满足相同分布的,这是通过训练数据获得的模型在测试数据上表现良好的一个保转载 2020-09-01 22:12:52 · 519 阅读 · 0 评论 -
SVD(奇异值分解)
https://www.cnblogs.com/endlesscoding/p/10033527.html奇异值分解(SVD)在数据降维中有较多应用。一、特征值分解实对称矩阵在理角奇异值分解之前,需要先回顾一下特征值分解,如果矩阵A是一个m×m的实对称矩阵(即A=ATA=A^{^{T}}A=AT),那么它可以被分解成如下的形式:其中Q为标准正交阵,即有Q=QTQ=Q^{T}Q=QT,Σ为对角矩阵,且上面的矩阵的维度均为m×m。λi\lambda_{i}λi称为特征值,qiq_{i}qi是Q.转载 2020-08-23 19:17:08 · 398 阅读 · 0 评论 -
范数(norm)的简单理解
当P取值不同,表示的范数也不同:(1)当P=1时:图中正方形上的点的L1范数大小都为1(2)当P=2:圆上任一点的L2范数都为1wjw_{j}wj是w1w_{1}w1到wnw_{n}wn中最大的数,那么L无穷范数就等于∣x∣|x|∣x∣或者∣y∣|y|∣y∣,正方形上的任意一点的L无穷范数为K...原创 2020-09-08 20:20:40 · 1781 阅读 · 0 评论 -
张量tensor
张量tensor几何代数中定义的张量是基于向量和矩阵的推广,通俗一点理解的话,我们可以将标量视为零阶张量,矢量视为一阶张量,那么矩阵就是二阶张量。那TensorFlow里面的张量(Tensor)是什么,流动(Flow)是什么?是什么?本教程中,我将使用Python,Keras,TensorFlow和Python库Numpy。在Python中,张量通常存储在Numpy数组,Numpy是在大部分的AI框架中,一个使用频率非常高的用于科学计算的数据包。我们为什么想把数据转换为Numpy数组?很简单。因为原创 2020-09-02 10:16:37 · 194 阅读 · 0 评论 -
归一化、标准化、正则化的区别
**归一化(Normalization)**是为了消除不同数据之间的量纲,方便数据比较和共同处理,比如在神经网络中,归一化可以加快训练网络的收敛性;把数据变为(0,1)之间的小数,主要是为了方便数据处理,因为将数据映射到0~1范围之内,可以使处理过程更加便捷、快速。把有量纲表达式变换为无量纲表达式,成为纯量。经过归一化处理的数据,处于同一数量级,可以消除指标之间量纲和量纲单位的影响,提高不同数据指标之间的可比性。主要算法:线性转换,即min-max归一化(常用方法)y=(x-min)转载 2020-09-21 11:27:46 · 341 阅读 · 0 评论 -
神经网络高效学习的相关技巧
目录1、参数的更新:1.1SGD(随机梯度下降法):1.2 Momentum1.3 AdaGrad1.4 Adam1.5 使用哪种优化方法呢?2、权重的初始值2.1可以直接把权值初始值设置为0吗?2.2隐藏层的激活值的分布2.3ReLu的权重初始化3、Batch Normalization(批标准化)4、正则化4.1 过拟合4.2 权值衰减4.3 Dropout5、超参数的验证:5.1验证数据5.2超参数的最优化:小结:本章将介绍神经网络的学习中的一些重要观点,主题涉及寻找最优权重参数的最优化方法、权重参原创 2020-09-21 15:27:18 · 262 阅读 · 0 评论 -
R-CNN,Fast R-CNN,Faster R-CNN对比
http://imgtec.eetrend.com/blog/2020/100049323.html一、设计思路今天介绍的 R-CNN 系列算法,都基于深度学习,它们把目标检测大致分为四部分完成:1、先从整幅图里选取最可能有物体的一些候选区域,这些区域一般用长方形框表示,这一步能缩小寻找范围2、既然用到深度学习,那就需要学习图像的深层特征,这里我们只关心上一步选出区域的图像特征,提取的特征可用于分类回归任务3、分类就是常规的分类方法,不过这里是多分类4、第一步给的候选框经过筛选后,不一定精准.转载 2020-08-18 21:07:10 · 1219 阅读 · 0 评论 -
Batch、Epoch和Iteration
https://www.jianshu.com/p/22c50ded4cf7在训练神经网络的时候,我们难免会看到Batch、Epoch和Iteration这几个概念。曾对这几个概念感到模糊,看了网上的一些文章后,在这里做几个小小的总结。????如有错误之处,还望指出。1、名词解释:【 图片来源:https://zhuanlan.zhihu.com/p/29409502 】**Epoch(时期):**当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次>epoch。(也就是转载 2020-08-18 12:19:42 · 567 阅读 · 0 评论 -
数据预处理 ( 特征工程)
数据预处理 (特征工程)一、标准化/归一化的好处1.1 提升模型精度举一个简单的例子,在KNN中,我们需要计算待分类点与所有实例点的距离。假设每个实例点(instance)由n个features构成。如果我们选用的距离度量为欧式距离,如果数据预先没有经过归一化,那么那些绝对值大的features在欧式距离计算的时候起了决定性作用,soga。1.2 提升收敛速度对于线性model来说,数据归一化后,最优解的寻优过程明显会变得平缓,更容易正确的收敛到最优解。比较这两个图,前者是没有经过归一化的,原创 2020-08-10 15:59:49 · 479 阅读 · 0 评论 -
激活函数介绍和对比
激活函数一、激活函数概念和作用二、 几种激活函数的对比饱和函数、不饱和函数(1)Sigmoid(2)tanh(3)ReLU(4)Leaky ReLU(5)RReLU(6)ReLU、Leaky ReLU、PReLU和RReLU的比较(7)ELU(8)Maxout三、如何选择合适的激活函数?一、激活函数概念和作用概念:在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数(又称激励函数);作用:激活函数可以引入非线性因素,使神经网络的表示能力更强了,能够更好的拟合目转载 2020-08-10 11:44:19 · 1505 阅读 · 0 评论