![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
哼律
永远都是个小白
展开
-
ubantu系统传文件至另一个服务器
scp -r 文件路径 用户名@IP地址:目录路径原创 2021-05-06 21:51:40 · 215 阅读 · 0 评论 -
pytorch中如何实现逆归一化
第一种方法,创一个类,再进行调用class UnNormalize(object): def __init__(self, mean, std): self.mean = mean self.std = std def __call__(self, tensor): """ Args: tensor (Tensor): Tensor image of size (C, H, W) to be no.原创 2021-03-18 09:29:31 · 2305 阅读 · 3 评论 -
在神经网络中weight decay起到的做用是什么?momentum呢?以及normalization
一、weight decay(权值衰减)的使用既不是为了提高你所说的收敛精确度也不是为了提高收敛速度,其最终目的是防止过拟合。在损失函数中,weight decay是放在正则项(regularization)前面的一个系数,正则项一般指示模型的复杂度,所以weight decay的作用是调节模型复杂度对损失函数的影响,若weight decay很大,则复杂的模型损失函数的值也就大。二、momentum是梯度下降法中一种常用的加速技术。对于一般的SGD,其表达式为,沿负梯度方向下降。而带momentum项的原创 2020-10-11 09:38:54 · 311 阅读 · 0 评论 -
最邻近差值算法(nearest)和双线性插值算法(bilinear)
最邻近插值算法和双线性插值算法——图像缩放加载图像时经常会遇见要缩放图像的情况,这种时候如何决定缩放后图像对应像素点的像素值,这时候就需要用到插值算法1.最邻近插值算法首先假设原图是一个像素大小为WH的图片,缩放后的图片是一个像素大小为wh的图片,这时候我们是已知原图中每个像素点上的像素值(即灰度值等)的(⚠️像素点对应像素值的坐标都是整数)。这个时候已知缩放后有一个像素点为(x,y),想要得到该像素点的像素值,那么就要根据缩放比例去查看其对应的原图的像素点的像素值,然后将该像素值赋值给该缩放后图片的原创 2020-09-23 16:16:58 · 5593 阅读 · 0 评论 -
Maxpool2d参数解释()
MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)原创 2020-09-18 22:21:25 · 12112 阅读 · 0 评论 -
pytorch中torch.nn.Conv2d()参数详解
https://blog.csdn.net/qq_34243930/article/details/107231539原创 2020-09-18 21:49:23 · 1210 阅读 · 0 评论 -
t.manual_seed(1)
在神经网络中,参数默认是进行随机初始化的。不同的初始化参数往往会导致不同的结果,当得到比较好的结果时我们通常希望这个结果是可以复现的,在pytorch中,通过设置随机数种子也可以达到这么目的。import torchprint(torch.rand(2))有这段代码可以知道,每次得到的数是随机的,如果不加上运行这段代码会发现,每次得到的随机数是固定的。但是如果不加上torch.manual_seed,打印出来的数就不同。所以只需要调用torch.manual_seed(seed),它将随机数生成器原创 2020-09-18 19:54:32 · 563 阅读 · 0 评论 -
2020-08-18
反卷积与卷积反卷积,顾名思义是卷积操作的逆向操作。为了方便理解,假设卷积前为图片,卷积后为图片的特征。卷积,输入图片,输出图片的特征,理论依据是统计不变性中的平移不变性(translation invariance),起到降维的作用。如下动图:反卷积,输入图片的特征,输出图片,起到还原的作用。如下动图:我们知道卷积结合池化的降维作用,将神经网络推向深度学习,开启神经网络的新世界,那么反卷积的作用呢?反卷积的作用反卷积崭露头角于“Unsupervised Representations Le原创 2020-08-18 15:16:39 · 128 阅读 · 0 评论