![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
PyTorch
linjiet
笔记、分享
展开
-
PyTorch(一)--一个程序说明numpy与Tensor的转换与他们的相互引用关系
import numpy as np import torch a = np.ones(5) b = torch.from_numpy(a)# 使用from_numpy方法,Tensor只会指向numpy数据 a_ = b.numpy() # a_使用Tensor中的数据 """ a = np.add(a,1) #只是将a中保存的指针指向新计算好的数据上去 print(a) #[2,2,2,2,...原创 2018-11-07 20:05:16 · 223 阅读 · 0 评论 -
pytorch(二)--batch normalization的理解
来源 《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》这是2015年的文献,提出的就是Batch Normalization层的概念。 为什么需要它? 神经网络学习的过程本质就是数据分布的学习过程。从最开始的感知机到全连接实现或非运算等都是如此。在CN...原创 2018-11-19 17:12:24 · 4475 阅读 · 0 评论 -
解决RuntimeError: _thnn_mse_loss_forward is not implemented for type torch.cuda.LongTensor和scatter_方法
在PyTorch中遇到了如标题的问题,网上大多数给的是类型不匹配问题,在stackoverflow找到了问题的答案,这里出现的问题是因为loss需要one-hot类型的数据,而我们使用的是类别标签。 什么是one-hot? 一个例子解释什么是one-hot,对于5分类问题,我们使用[0,0,1,0,0]来表示这个实例是属于第三个类别的,等价于类别标签[2](从0对类别编码)。关于one-hot的好...原创 2019-02-26 17:09:12 · 15637 阅读 · 0 评论