1.autograd根据用户对variable的操作构建计算图。对varible的操作抽象为Function.
2.由用户创建的节点成为节子叶点,叶子节点的grad_fn为None.叶子节点中需要求导的variable,具有AccumulateGrad标识,因其实累加的。
3.variable默认实不需要求导的,即requires_grad属性默认为False.如果某一个节点requires_grad被设置为True,那么所有依赖它的节点requires_grad都为True.
4.Variable默认的volatile属性默认为False,如果某一个variable的volitile属性为true的节点不会求导,volatile的优先级比requires_grad高。
5.多次反向传播时,梯度时累加的。反向传播的中间缓存会被清空,为进行多次反向传播需制定retain_graph=True来保存这些缓存。
6.非叶子结点的梯度计算完成后被清空,可以使用autograd.grad或hook技术获取非叶子结点梯度的值。
7.variable的grad与data形状一致,应避免直接修改variable.data,因为对data的直接操作无法利用autograd进行反向传播。
8.反向传播函数backward的参数grad_variables可以看成链式求导的中间结果,如果是标量,可以省略,默认为1.
10.Pytorch采用动态图设计,可以很方便地查看中间层的输出,动态地设计计算图结构。
pytroch中计算图的特点
最新推荐文章于 2024-08-14 12:00:04 发布