![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 84
Pytorch的学习笔记
独行的喵
这个作者很懒,什么都没留下…
展开
-
Pytorch数据类型Tensor张量操作(操作比较全)
本文只简单介绍pytorch中的对于张量的各种操作,主要列举介绍其大致用法和简单demo。后续更为详细的介绍会进行补充...原创 2023-06-22 11:19:59 · 3866 阅读 · 0 评论 -
[Pytorch]Broadcasting广播机制
对于x和y,按照小维度对齐后,最小维度上y的维度大小为1,该维度符合,次小维度上x的维度大小和y的维度大小相等,该维度符合,但是在第三小维度上x的维度大小为5,而y的维度大小为4,二者非1且不相等,所以不符合broadcasting的规则。对于x和y,按照小维度对齐后,在最小的维度上x和y的维度大小都是4,在次小维度上x和y的维度大小都是3,也符合规则。对于x和z,按照小维度对齐后,在最小的维度上x和z的维度大小都是4,符合规则。example 2:x,y不是broadcastable的。原创 2023-06-23 10:06:20 · 507 阅读 · 0 评论 -
[Pytorch]张量的合并:cat和stack操作
这里简单的理解是,两个shape为[2,2,3]的张量在dim=0上合并后,由原来两个2x[2,3]的张量合并为了一个4x[2,3]的张量,即shape为[4,2,3]的张量;而两个shape为[2,2,3]的张量在dim=1上合并后第一个维度的数量不变,而将第二个维度进行合并,可以看作将原来2x[2,3]的张量合并为了2x[4,3]的张量,原来每个[2x3]的张量的行数扩展至了4行。将多个向量在同一维度上进行合并,并且要求在指定维度dim外,其他维度的形状应保持相同。关于在不同维度上合并的结果。原创 2023-04-22 15:19:21 · 1065 阅读 · 1 评论