pytroch
骑猪的骑士
积少成多
展开
-
torch.is_floating_point函数
torch.is_floating_point原创 2023-10-23 15:04:50 · 156 阅读 · 0 评论 -
torch.is_conj函数
torch.is_conj原创 2023-10-23 14:54:08 · 232 阅读 · 0 评论 -
torch.is_complex函数
torch.is_complex原创 2023-10-23 14:47:27 · 146 阅读 · 0 评论 -
torch.is_tensor函数
pytorch的api解析原创 2023-10-23 14:42:50 · 105 阅读 · 0 评论 -
torch.is_storage(obj)函数
pytorch的api解析原创 2023-10-23 14:31:19 · 66 阅读 · 0 评论 -
pytorch中的.mm
在pytorch中的前向计算中经常会碰到x.mm()这个函数,先看一段代码class Linear(nn.Module): def __init__(self,in_feature,out_feature): super(Linear,self).__init__() self.w=nn.Parameter(t.randn(in_feature,out_feature)) self.b=nn.Parameter(t.randn(out_featu原创 2021-05-24 22:13:45 · 3590 阅读 · 0 评论 -
pytroch中计算图的特点
1.autograd根据用户对variable的操作构建计算图。对varible的操作抽象为Function.2.由用户创建的节点成为节子叶点,叶子节点的grad_fn为None.叶子节点中需要求导的variable,具有AccumulateGrad标识,因其实累加的。3.variable默认实不需要求导的,即requires_grad属性默认为False.如果某一个节点requires_grad被设置为True,那么所有依赖它的节点requires_grad都为True.4.Variable默认的v原创 2021-05-23 22:40:55 · 94 阅读 · 0 评论 -
pytorch中的一些坑
x=V(t.arange(0,3),requires_grad=True) y=x**2+2*xz=y.sum()z.backward()x.grad运行上述代码会出现Only Tensors of floating point and complex dtype can require gradients问题,主要问题是x的类型.将t.arange(0,3)运行并打印得到x=t.arange(0,3)tensor([0,1,2])从上面的结果可以看出tensor的类型是int类原创 2021-05-23 22:13:47 · 694 阅读 · 0 评论