if self.output_attention:
return (V.contiguous(), A)
#使用contiguous()
# 如果想要断开这两个变量之间的依赖(x本身是contiguous的),
#就要使用contiguous()针对x进行变化,感觉上就是我们认为的深拷贝。
#当调用contiguous()时,会强制拷贝一份tensor,让它的布局和从头创建的一模一样,但是两个tensor完全没有联系。
else:
return (V.contiguous(), None)
pytorch 中的 contiguous()
最新推荐文章于 2024-03-29 15:47:09 发布