深度学习
文章平均质量分 81
记录一些代码
胖虎记录学习
我很懒,还没有添加简介
展开
-
可变形卷积(Deformable Conv)原理解析与torch代码实现
图6为可变形卷积示意图。图1所示为普通卷积在输入特征图上进行卷积计算的过程,卷积核大小为3*3,在输入特征图尺寸为7*7上进行卷积,将卷积核权重与输入特征图对应位置元素相乘并求和得到输出特征图元素,按一定方式滑动窗口就能计算得到整张输出特征图。图6所示,在input feature map上普通卷积操作对应卷积采样区域是一个卷积核大小的正方形(绿框),而可变形卷积对应的卷积采样区域为一些蓝框表示的点,这就是可变形卷积与普通卷积的区别。先来一张图感受一下,图3为标准卷积与可变形卷积的卷积示例。原创 2023-03-28 17:21:26 · 17766 阅读 · 24 评论 -
torch中的矩阵乘法与广播机制
几乎可用于计算所有矩阵/向量相乘的情况,支持broadcast操作,可以理解为torch.mm的broadcast版本,其乘法规则视参与乘法的两个张量的维度而定。特别的,针对多维数据 matmul()乘法,可以认为该 matmul()乘法使用两个参数的后两个维度来计算,其他的维度都可以认为是batch维度。用于计算矩阵和向量之间的乘法(矩阵在前,向量在后),不支持broadcast操作,要求矩阵与向量满足矩阵乘法的要求。用来计算两个向量的点积,不支持broadcast操作,要求两个一维张量的元素个数相同。原创 2023-03-25 10:43:12 · 2878 阅读 · 0 评论 -
使用torch自实现简易版conv2d卷积(2种方法)
padding参数代表在输入特征矩阵四周补零的情况默认为0,同样输入可以为int型如1 代表上下方向各补一行,左右方向各补一列,如果输入为tuple型如(2, 1) 代表在上下方向补两行,左右方向补一列。kernel_size参数代表卷积核的尺寸,输入可以是int类型如3 代表卷积核的height=width=3,也可以是tuple类型如(3, 5)代表卷积核的height=3,width=5;卷积核尺寸为3*3*3,一共有2个卷积核;输入特征图尺寸为5*5,通道为3;– 卷积核元素之间的间距;原创 2023-03-23 13:46:18 · 1850 阅读 · 0 评论 -
tf.one_hot()--tensorflow实现独热编码
独热编码一般是在有监督学习中对数据集进行标注时使用,指的是在分类问题中,将存在数据类别的那一类用X表示,不存在的用Y表示,这里的X常常是1, Y常常是0;例如最常见的mnist手写数字识别任务,用one_hot进行编码,如下所示:数字0,[1,0,0,0,0,0,0,0,0,0];数字1,[0,1,0,0,0,0,0,0,0,0];数字9,[0,0,0,0,0,0,0,0,0,1];独热编码也适用于多分类任务,特别是损失函数为交叉熵损失的时候。indices表示输入的多个数值,通常是矩阵形式;dept原创 2022-06-02 15:27:35 · 1008 阅读 · 0 评论 -
tf.pad()--填充操作
padings:代表每一维填充多少,它的维度和tensor的维度一样;此操作根据您指定的 paddings 来填充一个 tensor,paddings 是一个具有形状 [n, 2] 的整数张量,其中 n 是 tensor 的秩,对于每个输入维度 D,paddings [D, 0] 表示在该维度的 tensor 内容之前要添加多少个值,而 paddings[D, 1] 表示在该维度中的 tensor 内容之后要添加多少值。原创 2022-05-06 15:03:45 · 908 阅读 · 0 评论