pytorch
TJMtaotao
这个作者很懒,什么都没留下…
展开
-
pytorch总结—TENSOR ON GPU
用方法 to() 可以将 Tensor 在CPU和GPU(需要硬件⽀支持)之间相互移动。if torch.cuda.is_available(): #返回True or False #当GPU可用为True,反之则为Falsedevice = torch.device("cuda") # GPUy = torch.ones_like(x, device=device) # 直接创建⼀个在GPU...原创 2019-12-30 11:26:01 · 479 阅读 · 0 评论 -
pytoch总结—TENSOR 和NUMPY相互转换
我们很容易用 numpy() 和 from_numpy() 将 Tensor 和NumPy中的数组相互转换。但是需要注意的⼀一点是: 这两个函数所产⽣生的的 Tensor 和NumPy中的数组共享相同的内存(所以他们之间的转换很快),改变其中一个时另⼀个也会改变!!!还有一个常用的将NumPy中的array转换成 Tensor 的方法就是 torch.tensor() , 需要注意的是,...原创 2019-12-30 11:22:37 · 644 阅读 · 0 评论 -
pytorch学习总结—运算的内存开销
前⾯面说了了,索引、 view 是不不会开辟新内存的,⽽而像 y = x + y 这样的运算是会新开内存的,然后将 y 指向新内存。为了了演示这⼀一点,我们可以使⽤用Python⾃自带的 id 函数:如果两个实例例的ID⼀一致,那么它们所对应的内存地址相同;反之则不不同。x = torch.tensor([1, 2])y = torch.tensor([3, 4])id_before ...原创 2019-12-30 11:12:42 · 586 阅读 · 0 评论 -
pytorch总结学习系列-广播机制
前⾯我们看到如何对两个形状相同的 Tensor 做按元素运算。当对两个形状不同的 Tensor 按元素运算时,可能会触发⼴广播(broadcasting)机制:先适当复制元素使这两个 Tensor 形状相同后再按元素运算。例如x = torch.arange(1, 3).view(1, 2)print(x)y = torch.arange(1, 4).view(3, 1)print(...原创 2019-12-29 23:11:15 · 703 阅读 · 0 评论 -
pytorch总结学习系列—pytorch环境安装(Windows版本)
1、Anaconda 安装https://www.anaconda.com/Anaconda 是一个包管理器,有了它就可以安装好python解释器环境2、pytorch安装https://pytorch.org/pytorch是一个深度学习框架,它主要用于深度学习,机器学习,等等。它可以用GPU加速模型训练,而且调用很简单,使用上也很方便,学习深度学习一定要学会pytorch...原创 2019-12-29 22:24:58 · 195 阅读 · 0 评论 -
pytorch 可视化
---------------------------------------------------------------- Layer (type) Output Shape Param #================================================================ ...原创 2019-10-15 22:42:10 · 191 阅读 · 0 评论