深度学习
文章平均质量分 75
宁然也
这个作者很懒,什么都没留下…
展开
-
Pytorch中DataLoader && TensorDataset 的基本用法
Pytorch中DataLoader && TensorDataset 的基本用法DataLoader:TensorDatasetDataLoader:DataLoader(dataset=torch_dataset,batch_size=BATCH_SIZE,shuffle=True,num_workers=2)dataset:DataLoader支持的两种数据集Iterator格式:例如数组,迭代器等Shuffle :是否重新整理数据。num_workers :加载数据原创 2022-05-22 17:22:56 · 610 阅读 · 0 评论 -
DDIM代码解读
betas。原创 2023-05-04 11:34:36 · 306 阅读 · 0 评论 -
深度学习数据相乘
*dtype 😗*返回数组的类型,以及与元素相乘的累加器的类型。如果未指定dtype,则默认为arr的dtype,除非arr的整数dtype的精度小于默认平台整数的精度。**Return 😗*除非指定out,否则将返回保存结果的新数组,在这种情况下将返回该数组。[数组]包含需要累积乘积的数字的数组。**axis 😗*计算累积乘积的轴。默认值是计算展平数组的乘积。[ndarray,可选]将结果存储到的位置。->如果未提供或没有,则返回新分配的数组。->如果提供,则必须具有广播输入的形状。原创 2023-05-04 10:21:08 · 137 阅读 · 0 评论 -
深度学习上采样下采样概念以及实现
相比上池化,使用反卷积进行图像的“上采样”是可以被学习的(会用到卷积操作,其参数是可学习的)。下采样的过程是一个信息损失的过程,而池化层是不可学习的,用stride为2的可学习卷积层来代替pooling可以得到更好的效果,当然同时也增加了一定的计算量。如果设置为False,则输入和输出张量由它们的角像素的角点对齐,插值使用边界外值的边值填充;1.插值,一般使用的是双线性插值,因为效果最好,虽然计算上比其他插值方式复杂,但是相对于卷积计算可以说不值一提,其他插值方式还有最近邻插值、三线性插值等;原创 2023-05-02 11:29:52 · 2530 阅读 · 0 评论 -
归一化层(BatchNorm、LayerNorm、InstanceNorm、GroupNorm)
以下图床。原创 2023-04-28 17:16:46 · 1907 阅读 · 0 评论 -
argparse.ArgumentParser
, action][, nargs][, const][, default][, type][, choices][, required][, help][, metavar][, dest])metavar - 在 usage 说明中的参数名称,对于必选参数默认就是参数名称,对于可选参数默认是全大写的参数名称.dest - 解析后的参数名称,默认情况下,对于可选参数选取最长的名称,中划线转换为下划线。choices:参数可允许的值的另一个容器。nargs:应该读取的命令行参数个数。原创 2023-04-27 20:42:29 · 577 阅读 · 0 评论 -
VGG论文
VGG论文原创 2022-09-28 20:50:35 · 579 阅读 · 0 评论 -
经典论文AlexNet
经典论文原创 2022-09-28 20:49:22 · 633 阅读 · 0 评论 -
经典论文-ResNet
ResNet论文及代码原创 2022-08-02 19:23:36 · 1808 阅读 · 0 评论 -
CNN 理解神经网络中卷积(大小,通道数,深度)
卷积的一些概念原创 2022-08-01 21:10:03 · 5115 阅读 · 1 评论