![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
weixin_43897604
这个作者很懒,什么都没留下…
展开
-
Python学习总结
Python-argparse-命令行与参数解析使用:import argparseparser=argparse.ArgumentParser(description='')parser.add_argument('--name', type=str, default='experiment_name', help='name of the experiment. It decides where to store samples)原创 2020-10-20 12:51:25 · 69 阅读 · 0 评论 -
看论文的一些总结
图像分割中的一些术语pixel-wise:一张图片是由像素(pixel)组成的,pixel-wise即是像素级别上的,是图像的基本单位。和voxel-wise意思差不多,都是图像的基本单位。但是pixel-wise是2D图像中,而voxel-wise是体素级别的,是3D图像中。image-wise:是图像级别,是对整个图片的处理。patch-wise:介于像素级别和图像界别中间,也就是块。每个patch由多个pixel组成,每个图片可以分为多个patch。...原创 2020-10-18 21:07:49 · 244 阅读 · 0 评论 -
pytorch,梯度参数
pytorch,梯度参数Autograd:自动求导首先我们学习到了pytorch中的对Tensor所有操作的自动求导机制。一个简单的例子from torch.autograd import Variablex = Variable(torch.ones(2, 2), requires_grad = True)y = x + 2 z = y * y * 3out = z.mean()# 现在我们来使用反向传播out.backward()# out.backward()和操作out.b原创 2020-09-30 10:04:16 · 276 阅读 · 0 评论 -
各种梯度下降算法的区别
1.批量梯度下降算法使用所有样本,先累加求和再求平均值。需要的迭代次数相对较少,但是如果样本量很大的话,计算速度会很慢。2.随机梯度下降算法每次只使用一个样本,则选取的方向会比较随机,因而得名。但是收敛速度较慢,迭代次数会比较多。3.小批量梯度下降算法则介于上述二者之间,使用部分样本,是一个折中的办法。参考:https://zhuanlan.zhihu.com/p/25765735...原创 2020-09-27 09:16:52 · 531 阅读 · 0 评论