pytorch tensorflow
深度学习框架相关
张飞飞~
吉林大学智能网联中心VCI实验室
展开
-
神经网络手动实现(3)
BN层实现:# 当前batch均值方差计算,以及历史均值方差滑动平均计算 #def bn(x, alpha, beta, moving_mean, moving_var, momentum, eps): # if test # """ :param x: input feature tensor :param alpha: :param beta: :param moving_mean: :param moving_var: feature dat原创 2021-10-09 11:38:52 · 129 阅读 · 0 评论 -
神经网络手动实现(2)
经典网络实现:LeNet:class Reshpe(nn.Module): def __init__(self): super(Reshpe, self).__init__() def forward(self, x): return x.reshape(-1, 1, 28, 28)class lenet(nn.Module): def __init__(self): super(lenet, self).__init__()原创 2021-10-08 22:30:08 · 132 阅读 · 0 评论 -
神经网络手动实现(1)
1.多层感知机网络局部实现(1)损失函数实现# Defined in file: ./chapter_linear-networks/linear-regression-scratch.mddef squared_loss(y_hat, y): """Squared loss.""" return (y_hat - d2l.reshape(y, y_hat.shape))**2 / 2def cross_entropy(y_hat, y): """ :param原创 2021-10-05 19:25:08 · 373 阅读 · 0 评论 -
pytorch---线性回归实现
线性回归实现1.准备数据2.定义模型3.定义损失函数4.定义优化方法5.训练超参数初始化循环传入数据计算损失梯度回传更新参数评估训练结果%matplotlib inline #可以直接画图import random import torch# from d2l import torch as d2l#prepare the datadef synthetic_data(w, b, num_examples): """ y = XW+b """ x = to原创 2021-10-01 11:20:45 · 157 阅读 · 0 评论 -
pytorch冻结网络参数及网络层学习率设置
1、冻结网络层参数 for name, param in model.named_parameters(): if ('discriminator_G' not in name) and ('discriminator_L' not in name): param.requires_grad = False原创 2021-08-15 20:47:14 · 790 阅读 · 0 评论 -
PyTorch--lr_scheduler.step()和optimizer.step()
https://zhuanlan.zhihu.com/p/136902153转载 2021-07-29 18:25:26 · 2105 阅读 · 0 评论