![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
torch
接近真理的真
这个作者很懒,什么都没留下…
展开
-
手写数字识别pytorch 附loss图和结果验证图
import torch import torchvision import torch.nn as nn import torch.nn.functional as F import torch.optim as optim import numpy as np import os import matplotlib.pyplot as plt from torchvision import datasets, transforms n_epochs = 3 random_seed = 1 BATCH.原创 2021-11-18 23:24:35 · 2016 阅读 · 0 评论 -
梯度下降的实现python
import numpy as np from matplotlib import pyplot as plt # 创建列表,用于保存采集得到的样本 data = [] for i in range(100): x = np.random.uniform(-10., 10.) # 随机采样输入x # 采样高四噪声 eps = np.random.normal(0., 0.01) y = 1.477 * x + 0.089 + eps data.append(.原创 2021-08-20 11:19:28 · 100 阅读 · 0 评论 -
神经网络实现torch温度计问题
import torch from matplotlib import pyplot as plt import torch.optim as optim import torch.nn as nn from collections import OrderedDict #torch.unsqueeze()这个函数主要是对数据维度进行扩充。参数为0数据为行方向扩,为1列方向扩,再大错误 # 为什么用unsqueeze # 因为PyTorch的nn.Linear()是用于设置网络中的全连接层的, # 需要注.原创 2021-08-02 11:43:44 · 487 阅读 · 0 评论 -
温度计问题(未使用优化器)
import torch from matplotlib import pyplot as plt def loss_fn(t_p,t_c):#注意定义变量是函数名字和变量名字不要混淆 l=(t_p-t_c)**2 return l.mean()#对所有损失求和key 变量.mean()为对变量求和 def model(t_u,w,b): return w*t_u+b def d_t(t_p,t_c): d_t=2*(t_p-t_c) return d_t def.原创 2021-08-02 11:41:30 · 55 阅读 · 0 评论 -
利用phtorch中的优化器实现梯度下降
import torch from matplotlib import pyplot as plt import torch.optim as optim # 因为grad在反向传播的过程中是累加的,也就是说上一次反向传播的结果会对下一次的反向传播的结果造成影响, # 则意味着每一次运行反向传播,梯度都会累加之前的梯度,所以一般在反向传播之前需要把梯度清零。 # #清零使用的方法是 # #未加入优化器时 # if params.grad is not None: # # params.grad.zero_.原创 2021-08-02 11:40:36 · 195 阅读 · 0 评论