- 博客(3)
- 收藏
- 关注
原创 【PyTorch】with torch.no_grad() 详解
我们知道在 PyTorch 中,前向传播过程中构建计算图,而反向传播时销毁计算图以释放内存并计算叶子节点的梯度信息。尽管如此,由于在 torch.no_grad() 上下文中创建的张量(如 param)不依赖于计算图中的其他节点,它们仍然被视为叶子节点。因此,这些张量的梯度信息仍然可以被访问,但是梯度计算不会在该上下文中进行,因此在此上下文内产生的张量不会保存任何梯度信息。因为原地操作会覆盖当前内存的值,但叶子节点所指向的内存块进行无法进行修改操作,否则会导致其中梯度信息与节点的值不再有计算上的对应关系。
2024-05-01 17:21:17 372
原创 Python:利用dict继承编写自定义Dict类
最近在学习python中,对利用dict继承编写自定义Dict类方面产生一些问题。问题源于廖雪峰老师博客中的一个问题:编写一个Dict类,要求类的行为和dict一致,但是可以通过属性来访问。文章将通过探究思路和代码分析解决这个问题。个人理解如有错误还请不吝赐教。
2023-05-04 17:45:06 1345 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人