![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch学习
小黑鸟000
本人小菜鸟一个,希望大家能多多赐教,和大家多多交流!
展开
-
d2lzh_pytorch
学习出处:http://tangshusen.me/Dive-into-DL-PyTorch/#/ 常用的函数 #!/usr/bin/env python # coding: utf-8 import collections import math import os import random import sys import tarfile import time from IPython import display from matplotlib import pyplot as plt im原创 2020-06-18 21:40:12 · 842 阅读 · 0 评论 -
3.11 模型选择、欠拟合和过拟合
K折交叉验证 由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(KK-fold cross-validation)。在KK折交叉验证中,我们把原始训练数据集分割成K个不重合的子数据集,然后我们做K次模型训练和验证。每一次,我们使用一个子数据集验证模型,并使用其他K−1个子数据集来训练模型。在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。 多项式函数拟合实验 %matplotlib inline原创 2020-06-18 21:35:24 · 230 阅读 · 0 评论 -
3.10 多层感知机的简洁实现
学习网址:http://tangshusen.me/Dive-into-DL-PyTorch/#/ import torch from torch import nn from torch.nn import init import numpy as np import sys sys.path.append("..") import d2lzh_pytorch as d2l 1 定义模型 加了一个全连接层作为隐藏层。它的隐藏单元个数为256,并使用ReLU函数作为激活函数。 num_inputs,原创 2020-06-18 21:28:17 · 124 阅读 · 0 评论 -
3.9 多层感知机的从零开始实现
多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换。多层感知机的层数和各隐藏层中隐藏单元个数都是超参数。以单隐藏层为例并沿用本节之前定义的符号,多层感知机按以下方式计算输出: [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5eX1719z-1592486805694)(attachment:image.png)]$$$$ 其中ϕϕϕ表示激活函数。在分类问题中,我们可以对输出OOO做softmax运算,并使用softmax回归中的原创 2020-06-18 21:26:59 · 224 阅读 · 0 评论 -
Pip 实现anaconda创建的多环境下包的安装
跑代码时发现有一个包conda没安装上,去网上搜了一下应该时pip install,但是要安装到自己的虚拟环境中。去网上转了一圈,应该是重新配置环境变量 具体: 计算机右键属性——高级系统——环境变量(找到你之前andconda配置的环境path,我的在系统变量)编辑,将需要的环境跟主环境同要求添加,同时挪到之前的上面,如下图: ...原创 2020-06-17 16:40:22 · 252 阅读 · 0 评论 -
3.8激活函数【relu sigmoid tanh 】
学习来源 1 ReLU函数 ReLU(rectified linear unit)函数提供了一个很简单的非线性变换。给定元素x,该函数定义为: ReLU(x)=max(x,0) ReLU(x)= max(x,0) ReLU(x)=max(x,0) ReLU函数只保留正数元素,并将负数元素清零。 为了直观地观察激活函数变换,我们先定义一个绘图函数xyplot。 %matplotlib inline import torch import numpy as np import matplotlib.pyl原创 2020-05-22 09:55:37 · 197 阅读 · 0 评论 -
Pytorch 学习
学习出处:http://tangshusen.me/Dive-into-DL-PyTorch/#/ 之前的文章里面忘了标注,抱歉。原创 2020-05-22 09:42:38 · 90 阅读 · 0 评论 -
3.7 softmax回归简洁实现
#导入所需的包 import torch from torch import nn from torch.nn import init import numpy as np # import sys # sys.path.append("..") import d2lzh_pytorch as d2l 1.读取或获取数据 #使用Fashion-MNIST数据集和上一节中设置的批量大小。 batch_size = 256 train_iter, test_iter = d2l.load_data_fash原创 2020-05-12 21:16:35 · 213 阅读 · 0 评论 -
3.5图像分类数据集
图像分类数据集中最常用的是手写数字识别数据集MNIST[1]。但大部分模型在MNIST上的分类精度都超过了95%。为了更直观地观察算法之间的差异,我们将使用一个图像内容更加复杂的数据集Fashion-MNIST[2] 本节将使用torchvision包,它是服务于PyTorch深度学习框架的,主要用来构建计算机视觉模型。torchvision主要由以下几部分构成: torchvision.datasets: 一些加载数据的函数及常用的数据集接口; torchvision.models: 包含常用的模型结构原创 2020-05-12 21:12:01 · 661 阅读 · 0 评论 -
Pytorch学习_线性回归的简洁实现
用比上一节线性回归更简洁的代码来实现同样的模型。 import torch import numpy as np from torch import nn 1.1 生成数据集 features是训练数据特征,labels是标签。 num_inputs = 2 num_examples = 1000 true_w = [2, -3.4] true_b = 4.2 features = torch.tensor(np.random.normal(0, 1, (num_examples, num_inputs)原创 2020-05-12 21:05:54 · 171 阅读 · 0 评论 -
Pytorch学习_线性回归(1)
1.矢量计算表达式 在模型训练或预测时,我们常常会同时处理多个数据样本并用到矢量计算。 在介绍线性回归的矢量计算表达式之前,让我们先考虑对两个向量相加的两种方法。 import torch from time import time #下面先定义两个1000维的向量。 a = torch.ones(1000) b = torch.ones(1000) """向量相加的一种方法是,将这两个向量按...原创 2020-04-28 20:43:45 · 640 阅读 · 0 评论