- 博客(8)
- 资源 (5)
- 收藏
- 关注
原创 第八讲,nn模型
一,torch.nn组成和属性nn模块组成nn.Module的属性nn.Module的特点和注意点:一个module可以包含多个子module一个module相当于一个运算,必须实现forward()函数每个module都有8个字典管理他的属性二,模型的容器,装有子modulenn.Sequential:按顺序包装多个网络层顺序性自带forward()–》自动通过f...
2019-11-30 12:03:44 5698
原创 第六讲,计算机视觉包torchvision和图像的数据增强方法
一,torchvision:计算机视觉工具包torchvision.transforms:常用的图像预处理方法torchvision.datasets:常用数据集的dataset实现torchvision.model:常用的模型预训练二,常用图像预处理方法,图像标准化torchvision.Normalize:mean:各通道的平均值std:各通道的标准差in...
2019-11-30 09:29:16 1204
原创 第五讲,DataLoader和DataSet以及
注:此部分的实现会在后续更新人民币识别和猫狗识别的实战中进行演示,请读者跟帖自行学习。一,数据读取流程二,DataLoader:构建可迭代的数据装载器torch.utils.data.Dataloaderdataset:Dataset类,决定数据从哪里读取以及如何读取batchsize:批大小num_works:是否多进程读取数据shuffle:每个epoch是否打乱顺序...
2019-11-29 11:29:45 1041
原创 第四讲,pytorch实现线性回归和逻辑回归
一,线性回归import torchimport matplotlib.pyplot as plttorch.manual_seed(10)lr = 0.1 # 学习率# 创建训练数据x = torch.rand(20, 1) * 10 # x data (tensor), shape=(20, 1)y = 2*x + (5 + torch.randn(20, 1)) # ...
2019-11-29 10:21:25 374
原创 第三讲,pytorch的动态图机制和自动求导系统
一,计算图与动态图机制的介绍1.计算图:计算图:用于描述运算的有向无环图。非叶子节点的梯度在计算过后默认丢弃,如需保存使用【tensor.retain_grad()】来对梯度进行保存2.动态图:静态图与动态图的区别在于:运算操作与搭建图的操作是否同时进行。二,pytorch的自动求导机制1.自动反向求梯度:torcn.autograd.backward()tenso...
2019-11-29 10:19:08 413
原创 第二讲,张量的操作
一,张量的拼接操作:torch.cat(tensors{张量序列}, dim{要拼接的维度}) —将张量按维度进行拼接 t = torch.ones((2, 3)) t_0 = torch.cat([t, t], dim=0) t_1 = torch.cat([t, t], dim=1) print("t_0:{} shape:{}\nt_1:{} sha...
2019-11-29 09:49:29 199
原创 第一讲,张量的属性与张量的创建
一,张量的属性1.Variable变量是pytorch0.4以前定义可训练参数的类型,0.4版本以后自动合并到tensor中去了。老版本Variable包含的属性:data:被包装的Tensorgrad:data的梯度grad_fn:创建tensor的关键,是自动求导的关键requires_grad:指示是否需要保留梯度用于梯度计算is_leaf:指示是否是叶节点0.4...
2019-11-29 08:16:45 619
原创 PYTHON编程小技巧(实用)
一,面试知识类1.python2和pyton3的区别?1、Python3 使用 print 必须要以小括号包裹打印内容,比如 print(‘hi’) Python2 既可以使用带小括号的方式,也可以使用一个空格来分隔打印内容,比如 print ‘hi’2、python2 range(1,10)返回列表,python3中返回迭代器,节约内存3、python2中使用ascii编码,pytho...
2019-11-26 18:04:17 1186
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人