![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
xinming_365
这个作者很懒,什么都没留下…
展开
-
torch-geometric的安装
torch-geometric 的安装。torch-geometric的安装必须要求版本对应,否则会出现很多麻烦的问题。比如:OSError: [WinError 127] 找不到指定的程序。所以安装之前,仔细检查一下cuda版本,pytorch的版本等等。此外,还要注意电脑安装的CUDA驱动和pytorch 中对CUDA支持包的版本是否对应,不对应同样会出错。# cuda是否可用,不必要。python -c "import torch; print(torch.cuda.is_availa原创 2021-11-26 14:15:31 · 3339 阅读 · 0 评论 -
SchNet+attention代码阅读记录
阅读SchNet的过程中,关于一些变量的定义和含义总是忘记,下面做一下记录和整理。class SchNet(torch.nn.Module): def __init__(self, hidden_channels, num_filters, num_interactions, num_gaussians, cutoff, readout='add', dipole, mean, std, atomref): super(SchNet, self).__init__() ... d原创 2021-09-15 17:23:50 · 1258 阅读 · 0 评论 -
torchvision库简介
torchvision库torchvision是独立于pytorch的关于图像操作的一些方便工具库。torchvision的详细介绍在:https://pypi.org/project/torchvision/torchvision主要包括一下几个包:vision.datasets : 几个常用视觉数据集,可以下载和加载,这里主要的高级用法就是可以看源码如何自己写自己的Dataset的子类vision.models : 流行的模型,例如 AlexNet, VGG, ResNet 和 Densen原创 2020-08-04 16:14:06 · 2298 阅读 · 0 评论 -
pytorch计算图
Pytorch中的神经网络pytorch的计算图pytorch是动态图机制,所以在训练模型的时候,每迭代一次都会构建一个新的计算图。而计算图代表着程序中变量之间的关系。y=(a+b)(b+c)y=(a+b)(b+c)y=(a+b)(b+c)在这个运算过程就会建立一个如下的计算图。在这个计算图中,叶子节点(leaf_node)就是参与运算的变量。这个图里面只有a,b,c是leaf_node。之所以要关注leaf_node,因为计算网络在反向传播的时候,需要根据链式求导法则求出网络最后输出的梯度,然后再对网原创 2020-07-30 16:09:22 · 5960 阅读 · 1 评论 -
pytorch分布式训练
torch.distributed 包支持Pytorch 中通过 torch.distributed 包提供分布式支持,包括 GPU 和 CPU 的分布式训练支持。Pytorch 分布式目前只支持 Linux。在此之前,torch.nn.DataParallel 已经提供数据并行的支持,但是其不支持多机分布式训练,且底层实现相较于 distributed 的接口,有些许不足。torch.distributed 的优势如下:每个进程对应一个独立的训练过程,且只对梯度等少量数据进行信息交换。在每次迭代原创 2020-07-29 16:40:11 · 808 阅读 · 0 评论 -
LSTM 和RNN
LSTM(Long Short-Term Memory )长短期记忆网络。一开始用于解决RNN结构中梯度消失问题而提出来的。LSTM设计了输入门(i),遗忘门(f),输出门(o)消除或者增加细胞状态的能力,最终使得LSTM具有记忆长期信息的能力。需要理解这三个门的工作才能够真正理解lstm在做什么。i,f,o都是sigmoid函数运算,取值范围在0,1之间。f门对上一层(上一时刻)的输出和本层的...原创 2020-01-08 01:04:31 · 404 阅读 · 0 评论