文字理解 参考
![](https://img-blog.csdnimg.cn/img_convert/8107ac6e09ba79c3ca5c96ba164ee2e5.png)
左图clone
clone是对数据data的`深度拷贝`,但是梯度是共享的, 即x1的data和x2的data是不一样的,但是gradient是同一个,共享一个内存地址。
右图detach
detach的机制正好与clone相反。x1的data和x2的data是同一个,但是gradient被截断了,是不通的,即x2的gradient回传不给x1
文字理解 参考
clone是对数据data的`深度拷贝`,但是梯度是共享的, 即x1的data和x2的data是不一样的,但是gradient是同一个,共享一个内存地址。
detach的机制正好与clone相反。x1的data和x2的data是同一个,但是gradient被截断了,是不通的,即x2的gradient回传不给x1