Pytorch
dotJunz
这个作者很懒,什么都没留下…
展开
-
【pytorch】稀疏矩阵 sparse_coo_tensor
pytorch 中稀疏矩阵和 dense 矩阵互转。原创 2023-03-20 21:17:56 · 325 阅读 · 0 评论 -
chatGPT 辅助张量变换
一开始我用语言描述了一下我想实现的功能,chatGPT 给出了结果,看着是对的,不过漏掉了中间维度。这是我在草稿纸上演算的结果,想在 pytorch 中高效实现。于是求助 chatGPT。我对 pytorch 中这么多张量变换还不熟,让我自己想可能要很久了。这个代码我试了,已经和我想要的答案很接近了,不过可能还需要变换一步。终于给出了想要的答案。原来这个操作只需要一步。想在 pytorch 中实现一个张量变换。我不想用 for 循环,因为它太慢了。换个思路,直接告诉它输入输出。原创 2023-03-18 15:24:47 · 102 阅读 · 0 评论 -
Embedding 理解
从这里也可以看到词嵌入的直观解释,那就是在一个 300 维的空间,每个单词都被嵌入其中,就像上图三维立方体中的每个点,就代表一个单词。在人脸识别领域,一张图片通过卷积网络到一个向量的过程称为编码,这里的 encoding 和 embedding 是一个意思,可以理解为广义的 embedding。可以理解为,共有 10 个单词,单词用 0-9 表示,分别乘以 3 个权重,得到词向量。每个维度表示一个特征,当然在实际任务中,每个特征可能并不会像例子中的那么明显,是网络自己学习得来的。原创 2023-02-21 10:51:53 · 590 阅读 · 0 评论 -
Time-distributed 的理解
今天看到论文中用到 Time-distributed CNN,第一次见到 Time-distributed,不理解是什么含义,看到代码实现也很懵。不管什么网络结构,外面都能套一个TimeDistributed。看了几个博客,还是不明白,问了问ChatGPT,终于明白了一点。原创 2023-02-19 22:46:21 · 3668 阅读 · 3 评论 -
ValueError: Expected more than 1 value per channel when training, got input size torch.Size([1, 128]
因为用到了BatchNorm,所以batch_size要大于1,drop_last 参数设置为True。如果是两个GPU训练,batch_size改为4。原创 2023-02-17 17:53:39 · 2211 阅读 · 0 评论 -
numpy 将多个二维数组拼接成一个三维数组
【代码】numpy 将多个二维数组拼接成一个三维数组。原创 2022-11-23 08:48:15 · 1434 阅读 · 0 评论 -
pytorch 修改tensor数据类型
【代码】pytorch 修改tensor数据类型。原创 2022-11-11 18:02:20 · 1139 阅读 · 0 评论 -
pytorch repeat复制
PyTorch中的repeat()函数可以对张量进行复制。原创 2022-11-11 17:45:36 · 579 阅读 · 0 评论 -
pytorch 给tensor增加一维(unsqueeze)或删除一维(squeeze)
squeeze只能删除维度为1的某一维。若某个维度不为1,可以用切片取出该维度的一个数据,再用squeeze删除。原创 2022-11-11 17:16:07 · 6207 阅读 · 0 评论 -
numpy transpose 和 pytorch transpose
transpose 函数的功能是重新排列维度,但是在 numpy 和 pytorch 中用法不同。原创 2022-11-11 16:46:56 · 370 阅读 · 0 评论 -
tensor和numpy相互转换
【代码】tensor和numpy相互转换。原创 2022-11-11 16:02:25 · 407 阅读 · 0 评论