自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 频域图像纵坐标理解

下图引用自:https://www.cnblogs.com/h2zZhou/p/8405717.html频率方向中,频域图像大小是归一化的振幅。

2019-11-19 17:28:40 7274 2

原创 PIL.Image读取图片维度

PIL.Image读取RGB时候,读取出来维度是(x,x,3),读取L也是(x,x,3)。RGB是三通道的格式,而L是单通道,为啥后面是3呢?虽然是3,但是每个通道中的值是一样的。在处理图片的时候,如果将L转为数组形式,那么最后处理的结果就是(x,x,3),但是如果不转为数组,直接使用transforms.ToTensor()将其转为Tensor,那么就直接可以得到(1,x,x)的格式了,...

2019-11-18 19:14:43 5465 1

原创 PyTorch中部分方法介绍

1.torchvision.transforms.Normalize(mean, std)mean参数:给定序列的均值,形式为(R,G,B)(并不一定是三维)std参数:给定序列的平均标准偏差(标准差),形式为(R,G,B)(并不一定是三维)功能:将给定的Tensor正则化,也就是按照如下公式计算:2.torch.utils.data.DataLoader()3.torch...

2019-11-18 16:45:32 178

原创 图像分割算法概述

传统方法1.灰度阈值分割方法,根据每个像素中的像素值,判断其于阈值的大小关系 难点在于找到一个合适的阈值2.区域跟踪分割方法,先找一个像素作为种子点,然后按照和种子点的相似性,将其他像素归类到种子点这一类难点在于种子点的选取和相似性的度量3.边缘检测分割方法相邻的两个区域,其边界的灰度特征不同,可以根据这个来对其进行区分。...

2019-11-18 16:11:01 246

原创 PyTorch中RGB图片(x,x,3)变为(3,x,x)

RGB格式的图片,在转为数据的时候,维度是(x,x,3),但是使用了torchvision.transforms.transforms中的ToTensor方法(将图片转为张量Tensor)之后,维度会自动转为(3,x,x)。以下是一个例子:from torchvision.transforms import transformsx = np.zeros((512, 512, 3))...

2019-11-16 21:46:11 1871

原创 PyTorch实现U-Net

先上一张图,网络就是实现下面这个图。import torchfrom torch import nnfrom torch.nn import functional as Ffrom torch.autograd import Variableclass Unet(nn.Module): def contracting_block(self, in_channels, ...

2019-11-16 18:51:15 2739 2

原创 梯度下降算法及其改进

1.梯度和梯度值一个函数f(x,y,z),求其在x,y,z上的偏导,比如要求其在M(a,b,c)上的梯度,则将a,b,c带入()中,可以得到一个新的向量(A,B,C),那么这个新的向量就是梯度。梯度值就是这个向量的模,即。2.梯度下降算法给定和初始点重复执行以下过程直到满足条件 这里的就是求的梯度 是学习率普通梯度下降容易陷入局部最优,所以需要改...

2019-11-15 12:38:57 863

原创 PyTorch中CNN池化层输入输出维度

输入数据维度W1*H1*D1设置参数,filter大小F,滑动步长S和dilation(D),padding(P,一般不设置pading)那么输出是W2*H2*D2其中W2=(W1+2P-D(F-1)-1)/S + 1H2=(H1+2P-D(F-1)-1)/S + 1...

2019-11-14 20:28:14 2556

原创 PCA主成分分析

相关概念:1. 高斯分布:就是正态分布主成分分析:1.主成分:将样本作图,数据变化剧烈程度最大的方向就是主成分所在的方向。就是说,数据在某个方向上的投影上的方差最大,那么这个方向就是主成分的方向。2.通过特征值和特征向量来求主成分,对数据做相应的变化(比如在将数据沿某轴缩放,然后旋转),然后计算样本协方差矩阵,求这个协方差矩阵的特征值和特征向量,特征值最大的就对应最主要的主成分,其...

2019-11-12 17:54:39 371

原创 神经网络中隐藏层的层数和隐藏层节点数的确定

1.隐藏层的层数一般来说,层数越多,整个网络的误差也就越小,但是会是整个网络复杂化,增加网络的训练时间,也有可能出现“过拟合”(太适应于训练集,在测试集上效果不好)的情况。一般来说,一两层的隐藏层已经能够解决很多问题了,如果数据量多,可以在防止出现过拟合的情况下适当的增加层数。2.隐藏层节点数隐藏层节点数是导致“过拟合”的直接原因,确定隐藏层节点数与输入输出维度相关,并且每个模型都是不...

2019-11-12 15:45:34 41771 1

原创 对抗生成网络原理

对抗生成网络模型如下图:1.分为生成网络G和对抗网络D,对抗网络G是用于生成数据,对抗网络是用语判断真假数据,即判断数据是真实的还是生成的;2.z是随机生成的隐藏向量,通过生成网络G后得到生成数据G(z);3.x是原始的数据;4.首先需要训练一个最佳的对抗网络,有了一个很好的判断真假数据的网络,我们才能确保生成出来的假数据可以以假乱真,所以要最大化对抗网络D的区分度,即达到使得...

2019-11-09 11:18:53 3025

原创 长短时记忆网络LSTM中各个输入、输出和参数维度及计算流程

个人笔记,不喜勿喷。举例说明(结合pytorch,最后会给出代码)构建的网络nn.LSTM:(28,4,num_layers=2),即图中是4层输入lstm_input:维度是(10,3,28)初始化隐藏状态h_init:维度是(2,3,4)初始化初始化细胞状态c_init:维度是(2,3,4)计算结果out:维度是(10,3,4)计算后最后一个时间步h隐藏状态:维度是...

2019-11-04 22:01:43 10546 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除