PySOT
Tabbyddd
这个作者很懒,什么都没留下…
展开
-
NLL_Loss & CrossEntropyLoss(交叉熵)
EntropyLoss**交叉熵损失函数。交叉熵描述了两个概率分布之间的距离,当交叉熵越小,说明二者之间越接近。实际上,可以认为:CrossEntropyLoss = log_sofrmax + NLLLoss在对图片进行分类时,通常会一次性输入n张图片,最后得出一个n*c的tensor,c是此次分类的类别数:比如:n=10,c=2,表示一共10张图片,类别为2类output = torch.tensor([[-2.8799, 1.1380], [ 0.4756, -0.277原创 2020-05-13 20:26:30 · 6339 阅读 · 3 评论 -
models.init_weight
import torch.nn as nndef init_weights(model): # kaiming高斯初始化,使得每一卷积层的输出的方差都为1 # torch.nn.init.kaiming_normal_(tensor, a=0, mode='fan_in', nonlinearity='leaky_relu') # a :Relu函数的负半轴斜率 # mode:表示让前向传播还是反向传播的输出方差为1 for m in model.modules原创 2020-05-12 17:38:36 · 3107 阅读 · 0 评论