深度学习
文章平均质量分 90
AI有温度
这个作者很懒,什么都没留下…
展开
-
详解Pytorch动态图的回溯机制
原文链接:详解Pytorch动态图的回溯机制大家好,我是泰哥。《5分钟精通PyTorch》经过1个月的连载,已经介绍了张量的常规操作以及运算技巧。之后的章节就进入到深度学习部分,会以理论与代码结合的方式为大家呈现,帮助大家理解其中细节。对于动态图回溯机制的学习与理解,首先从张量的微分计算开始入手。注意本节我们暂时不区分微分值、导数值、梯度值的区别,后续讲解梯度下降时再进行区分。不理解的同学统一理解为导数即可。1 Variable与requires_grad有同学会说在进行微分运算时需提前将Ten原创 2021-12-13 14:08:38 · 5993 阅读 · 0 评论 -
反向传播:计算图的追踪与停止
原文链接:计算图的追踪与停止反向传播梯度计算是模型收敛的必须手段,今天我们就看看PyTorch中反向传播是如何实现的。1 反向传播的基本过程x = torch.tensor(1., requires_grad = True)y = x ** 2z = y + 1与上节一样,我们构建x、y、z三者之间的函数关系。所谓反向传播,是在此前计算图中记录的函数关系中,反向传播函数关系,进而求得叶节点x的导数值。z# tensor(2., grad_fn=<AddBackward0>)原创 2021-12-13 14:21:10 · 993 阅读 · 0 评论 -
过拟合与欠拟合
过拟合和欠拟合的原因及解决方法转载 2022-08-30 17:20:18 · 264 阅读 · 0 评论