![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
Vincent123Mei
这个作者很懒,什么都没留下…
展开
-
标准化和归一化(Standardization and Normalization)
“标准化”和“归一化”主要是指代四种Feature scaling(特征缩放)的方法Rescaling ( min-max normalization) 有时简称normalizationx′=x−min(x)max(x)−min(x) x^{'} = \frac{x - min(x)}{ max(x) - min(x)}x′=max(x)−min(x)x−min(x)将数值范围缩放到(0, 1),不改变数据分布特点: 本归一化方法比较适用于数值比较集中的情况缺点: 如果max和min不稳定原创 2020-07-08 22:17:59 · 570 阅读 · 0 评论 -
深度学习框架pytorch入门与实战
2.2.1 Tensor函数名后带下划线_的函数会修改Tensor本身。例如,x.add_(y)和 x.t_()会改变x,但x.add(y)和 x.t()会返回一个新的Tensor,而x不变Tensor 支持很多运算,包括数学运算、线性代数、选择、切片等,其接口设计与numpy极为相似Tensor和numpy的数组间的仙湖操作非常容易且快速。Tensor不支持的操作,可以先转为numpy数组处理,之后再转回Tensor。a = t.ones(5) # tensor([1., 1., 1., 1.,原创 2020-06-01 22:03:15 · 1604 阅读 · 0 评论 -
深度学习之pytorch实战计算机视觉
第3章 深度神经网络基础3.1 监督学习和无监督学习监督学习(supervised learning):提供一组输入数据和其对应的标签数据,然后搭建一个模型,让模型在通过训练后准确地找到输入数据和标签数据之间的最优映射关系,在输入新的数据后,模型能够通过之前学到的最优映射关系,快速地预测出这组新数据的标签。这就是一个监督学习的过程3.1.1监督学习监督学习的主要应用场景:回归问题和分类问题回归问题:使用监督学习的方法,让我们搭建的模型在通过训练后建立起一个连续的线性映射关系,其重点如下:通过原创 2020-05-26 16:31:43 · 690 阅读 · 0 评论 -
变分贝叶斯(变分自编码器)和论文《Auto-Encoding Variational Bayes》解析
变分贝叶斯变分贝叶斯自编码器(VAE) 汇总变分贝叶斯推断(Variational Bayes Inference)简介变分贝叶斯方法变分贝叶斯(Variational Bayes)《Auto-Encoding Variational Bayes》解析读论文《Auto-Encoding Variational Bayes》Auto-Encoding Variational Bayes学习笔记变分自编码器(变分贝叶斯)Auto-Encoding Variational Bayes(VAE)V原创 2020-05-17 20:46:54 · 945 阅读 · 0 评论 -
自编码器(AutoEncoder)
自编码器主要分为两步:编码(encoder)和解码(decoder),编码阶段主要是将输入信息映射到低维度的空间(提取有用的特征),解码阶段主要是为了还原输入的结果。其中损失函数L用于度量输出信息与输入信息偏离的程度正则自编码器是在损失函数中加入对模型复杂度的惩罚项根据损失函数的不同,自编码器可以分为以下几类:稀疏自编码器(Sparse AE)降噪自编码器(Denose AE)收缩自编...原创 2020-05-02 16:05:04 · 511 阅读 · 0 评论 -
卷积神经网络(CNN)简介
文章目录整体构造卷积层卷积运算填充(padding)步幅(stride)3维数据的卷积运算批处理(batch)池化层整体构造卷积神经网络(CNN)一般由卷积层(Convolution 层)、池化层(Pooling 层)和全连接层构成卷积层在全连接层中,相邻层的神经元全部连接在一起,输出的额数量可以任意决定。但是在全连接层中,数据的形状被忽视了,所有的数据都是由1维向量构成。例如图像通常是通...原创 2020-04-20 16:42:12 · 889 阅读 · 0 评论