pytorch
文章平均质量分 78
虾米儿xia
这个作者很懒,什么都没留下…
展开
-
pytorch学习日记(一)——之CIFAR10图像训练测试实战
神经网络NN编程实现,往往需要以下几个步骤:1)定义NN,初始化NN的参数(权重和偏置)2)准备好输入数据集3)让输入通过NN,得到输出4)计算输出和理想输出的loss5)采用随机梯度下降方法(SGD),后向传播更新NN的权重和偏置,更新规则:weight = weight - learning_rate * gradient下面,将根据这些步骤进行编程:导入...原创 2018-07-29 11:25:19 · 9688 阅读 · 10 评论 -
pytorch学习日记(二)——之cv2,matplotlib,PIL比较及与Tensor的转换
用python进行图像处理中分别用到过matplotlib.pyplot、PIL、cv2三种库,这三种库图像读取和保存方法各异,并且图像读取时顺序也有差异,如plt.imread和PIL.Image.open读入的都是RGB顺序,而cv2.imread读入的是BGR顺序。使用时需要倍加注意。1. cv2,matplotlib,PIL比较读取图像1.cv2.imreadopencv读进...原创 2018-08-08 09:12:18 · 8953 阅读 · 3 评论 -
pytorch学习日记(三)——之Data Parallelism
PyTorch中使用了张量类型,而不用numpy的array,就是为了可以在GPU上运行代码,那我们怎么样才能使用GPUs来加速运行呢。其实非常简单,几条语句就可以完成了。1. 基本语句模型放到一个GPU上运行model.gpu() 将张量放到GPU上mytensor = my_tensor.gpu()注: 仅仅调用my_tensor.gpu()函数并不会将张量复制到GPU上,所以一定...原创 2018-08-08 10:38:21 · 617 阅读 · 0 评论 -
pytorch实战(一)之梯度下降实现
1.需求说明我们首先随机生成N个数,再通过一个线性函数生成目标数据target,然后将这N个数据通过我们自定义的神经网络得到输出output,通过不断迭代更新w和b,最小化target和output的差值,以此来实现:输入最初产生的随机数据N,通过网络,得到近似线性函数生成的目标数据target。2.编程实现1)导入模块import torchfrom torch.auto...原创 2018-09-02 15:03:05 · 6902 阅读 · 0 评论