![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
a707819156
这个作者很懒,什么都没留下…
展开
-
pytorch .item() 张量
item是得到一个元素张量里面的元素值torch.Tensor.item() 坑,注意只能是一个值,适合返回loss,acc原创 2020-05-24 17:11:41 · 2180 阅读 · 0 评论 -
lce损失与软交叉熵损失函数
区别lce就是交叉熵损失函数在pytorch中可以有两个实现的方式:采用nn.logsoftmax(),然后采用nn.nn.NLLLoss (负对数似然损失)直接采用nn.CrossEntropyLoss()软交叉熵损失函数,不同于上面的硬标签损失,只求位于lable处的损失,由于给出的标签是软标签,最后的损失是软标签每个位置的数值与对应位置的预测结果的值相乘并累加起来。...原创 2020-05-14 09:50:29 · 2227 阅读 · 1 评论 -
pytorch的paramter
register_parameternn.Parameters 与 register_parameter 都会向_parameters写入参数,但是后者可以支持字符串命名。从源码中可以看到,nn.Parameters为Module添加属性的方式也是通过register_parameter向_parameters写入参数。 def __setattr__(self, name,...原创 2020-03-13 16:15:13 · 380 阅读 · 0 评论 -
pytorch中数据结构与numpy的区别
pytorch中a.resize() 不会改变a本身,和reshape()的区别只是resize不必严格遵守形状的规则上述两个方法都有返回值,与a.view一样,和a共用一片内存,改变之后a也会改变numpy中a.resize()无返回值 会修改a本身 a.reshape()有返回值 不会修改a本身...原创 2019-08-18 14:44:18 · 440 阅读 · 0 评论