pytorch基础知识积累
文章平均质量分 56
木槿qwer
这个作者很懒,什么都没留下…
展开
-
(0_)Pytorch之optimizer.zero_grad()
optimizer.zero_grad() 功能梯度初始化为零,把loss关于weight的导数变成0为什么每一轮batch都需要设置optimizer.zero_grad根据pytorch中的backward()函数的计算,当网络参量进行反馈时,梯度是被积累的而不是被替换掉。但是在每一个batch时毫无疑问并不需要将两个batch的梯度混合起来累积,因此这里就需要每个batch设置一遍zero_grad 了每个batch必定执行的操作步骤optimizer.zero_grad() # 梯度初始原创 2021-11-26 10:43:21 · 9134 阅读 · 0 评论 -
(7)Pytorch保存日志 tensorboard、logger
保存日志 Tensorboard原创 2022-12-18 15:11:25 · 1248 阅读 · 0 评论 -
(5)Pytorch数据处理DataLoader
Pytorch 数据处理原创 2022-12-10 16:59:47 · 816 阅读 · 0 评论 -
(6)Pytorch常用函数
Pytorch常用函数原创 2022-12-10 17:54:04 · 394 阅读 · 0 评论 -
(4)Pytorch模型model.train() model.eval()的区别
model.train()、model.eval()的区别原创 2022-12-09 17:42:13 · 288 阅读 · 0 评论 -
(3)Pytorch模型打印
模型打印原创 2022-12-08 15:32:46 · 799 阅读 · 0 评论 -
(2)Pytorch保存模型权重参数
保存模型权重参数原创 2022-12-08 15:30:14 · 1269 阅读 · 0 评论 -
(0)Pytorch模型保存和加载
模型保存和加载原创 2022-10-17 20:08:44 · 243 阅读 · 0 评论 -
(1)Pytorch模型添加、删除、修改网络层
Pytorch模型添加、删除、修改网络层原创 2022-10-17 20:14:17 · 2166 阅读 · 0 评论 -
opt.parser的知识点及化代码模块化、随机数种子
opt.parser 随机数种子原创 2022-12-06 21:10:26 · 359 阅读 · 0 评论