深度学习
正版dongbaba
这个作者很懒,什么都没留下…
展开
-
《动手学深度学习》softmax回归过程示意图
原创 2023-12-12 10:03:44 · 477 阅读 · 0 评论 -
pytorch的detach()函数原理——手动演示
detach函数作用:它的主要作用是将张量(tensor)从计算图中分离。具体来说,detach() 方法会创建一个新的张量,其值与原始张量相同,但不再与计算图相关联,也就是说,新张量不再具有梯度信息。——摘自ChatGPT。从Jupyter中的输出可以看出,detach()改变了是否带有grad_fn,grad_fn 是梯度函数(gradient function)的缩写。在张量(tensor)上执行的操作被称为计算图中的节点。grad_fn 属性存储了创建张量的操作的引用,用于构建梯度计算图。原创 2023-12-06 10:30:09 · 602 阅读 · 0 评论