- 博客(5)
- 收藏
- 关注
原创 第三章 Pytorch基础:3.2 Autograd
(2)y.backward(grad_variables)中的grad_variables相当于链式法则中的中间微分(如z对x求导,y是中间的,那么grad_variables是z对y的导数)。2. 计算w的梯度的时候,需要用到x的数值,这些数值在前向过程中会保存成buffer,在计算完梯度之后会自动清空。(next_functions保存grad_fn的输入,是一个tuple,tuple的元素也是Function)(1)Variable x的梯度是目标函数f(x)对x的梯度,形状与x一致。
2023-09-18 15:22:04
189
原创 第三章 Pytorch基础:3.1 Tensor
其中,gather函数比较复杂:gather(input, dim, index),在dim的维度上,选取与index一样的值,且index的维度要与input的相符。(2)resize:与view不同,它可以修改tensor的大小,如果新大小超过了原大小,则自动分配新的内存空间;(1)Tensor是最复杂多变的方式,既可以接收一个list,并据其数据新建tensor,也可以根据制定的形状新建tensor,还能传入其他tensor;(2)b.tolist可以吧tensor b 转化为list;
2023-09-11 22:24:38
158
原创 Midas civil笔记
1. 体内力:初始的力加到结构上去后,随着结构的变形等过程稳定后,大小会发生变化的力,即加载前后大小发生了改变,属于力去适应结构的变形。2. 体外力:加到结构上后,需要维持所需大小的力,使结构变形来满足其条件,即该力加载到结构前后不会发生变化,结构变形去适应力的大小。
2023-09-01 23:44:30
2044
1
原创 Pytorch基础入门
2. Tensor和Numpy的数组之间的互操作非常容易且快速,对于Tensor不支持的操作,可以先转化为Numpy数组尽力,之后再转回Tensor。且二者的对象共享内存,使得其转换很快,几乎不会消耗什么资源,但是这也意味着其中一个变了,另外一个也会随之改变。1. 函数名后加"_"会修改Tensor本身,如加法的两种表达形式:y.add(x) 和 y.add_(x),前者不改变y的值,后者改变了y的值。
2023-08-27 21:54:31
318
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人