![](https://img-blog.csdnimg.cn/2019092715111047.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习&Pytorch
学习入门
打呼噜的星.
Take Your Time.
展开
-
现代循环神经网络之LSTM
通过该机制来控制输入和遗忘,也就是“存储单元”。:输出门:控制t时刻状态所少用于输出。:遗忘门,控制保留了多少旧记忆单元。:输入门,控制采用多少来自。原创 2022-10-02 16:54:36 · 335 阅读 · 0 评论 -
torch.argmax()&&torch.max()函数用法
【代码】torch.argmax()函数用法。原创 2022-09-06 17:58:40 · 332 阅读 · 0 评论 -
torch.nonezero()的用法
如果输入input有n维,则输出的索引张量output的形状为 z x n, 这里 z 是输入张量input中所有非零元素的个数。返回一个包含输入input中非零元素索引的张量。输出张量中的每行包含输入中非零元素的索引。out (LongTensor, optional) – 包含索引值的结果张量。input (Tensor) – 源张量。原创 2022-09-06 15:04:23 · 966 阅读 · 0 评论 -
锚框之间的IOU理解
以下函数是计算锚框之间的IOU,但是有两行代码看了好久,记录一下,怕下次又不理解了。。(哭泣){}原创 2022-09-05 21:41:45 · 436 阅读 · 1 评论 -
Pytorch中用None增加Tensor维度
Pytorch中用None增加Tensor维度原创 2022-09-04 10:53:44 · 788 阅读 · 0 评论 -
torch.unsqueeze()与torch.squeeze()用法
input:输入的Tensor。dim:要插入的维度。原创 2022-09-03 21:50:01 · 313 阅读 · 0 评论 -
torch.repeat_interleave()用法
dim(类型:int)需要重复的维度。默认情况下,将把输入张量展平(flatten)为向量,然后将每个元素重复repeats次,并返回重复后的张量。repeats(类型:int或torch.Tensor):每个元素的重复次数。repeats参数会被广播来适应输入张量的维度。input:输入的张量(类型为Tensor)原创 2022-09-03 21:17:48 · 327 阅读 · 0 评论 -
torch.stack()用法
pytorch中的stack函数原创 2022-09-03 17:54:25 · 734 阅读 · 0 评论 -
torch.meshgrid()的作用及用法
pytorch 深度学习原创 2022-09-03 16:07:40 · 6353 阅读 · 3 评论 -
Pytorch中的广播机制
广播机制触发:当两个数组的shape不一样时候,1)程序会自动执行操作使得A.shape==B.shape, 2)对应位置进行相加运算结果的shape是:A.shape和B.shape对应位置的最大值,比如:A.shape=(4,10,4),B.shape=(15,1,4),那么A+B的shape是(15,10,4)并非任意两个数组能进行广播。两种情况能进行广播:(1)当A.shape> B.shape时,A.ndim=B,ndim, 且A中包含B中后几个元素。如:A.shape=(2,3原创 2021-10-03 00:29:41 · 215 阅读 · 0 评论