MSELoss()与CrossEntropyLoss() 区别

基于pytorch来讲

MSELoss()多用于回归问题,也可以用于one_hotted编码形式,

CrossEntropyLoss()名字为交叉熵损失函数,不用于one_hotted编码形式

MSELoss()要求batch_x与batch_y的tensor都是FloatTensor类型

CrossEntropyLoss()要求batch_x为Float,batch_y为LongTensor类型

(1)CrossEntropyLoss() 举例说明

比如二分类问题,最后一层输出的为2个值,比如下面的代码:

class CNN (nn.Module ) :
    def __init__ ( self , hidden_size1 , output_size , dropout_p) :
        super ( CNN , self ).__init__ ( )
        self.hidden_size1 = hidden_size1
        self.output_size = output_size
        self.dropout_p = dropout_p
        
        self.conv1 = nn.Conv1d ( 1,8,3,padding =1) 
        self.fc1 = nn.Linear (8*500, self.hidden_size1 )
        self.out = nn.Linear (self.hidden_size1,self.output_size ) 

    
    def forward ( self , encoder_outputs ) :
        cnn_out = F.max_pool1d ( F.relu (self.conv1(encoder_outputs)),2) 
        cnn_out = F.dropout ( cnn_out ,self.dropout_p) #加一个dropout
        cnn_out = cnn_out.view (-1,8*500) 
        output_1 = torch.tanh ( self.fc1 ( cnn_out ) )
        output = self.out ( ouput_1)
        return output

最后的输出结果为:

上面一个tensor为output结果,下面为target,没有使用one_hotted编码。

训练过程如下:

cnn_optimizer = torch.optim.SGD(cnn.parameters(),learning_rate,momentum=0.9,\
                            weight_decay=1e-5)
criterion = nn.CrossEntropyLoss()

def train ( input_variable , target_variable , cnn , cnn_optimizer , criterion ) :
    cnn_output = cnn( input_variable )
    print(cnn_output)
    print(target_variable)
    loss = criterion ( cnn_output , target_variable)
    cnn_optimizer.zero_grad ()
    loss.backward( )
    cnn_optimizer.step( )
    #print('loss:  ',loss.item())
    return loss.item() #返回损失

 

 

说明CrossEntropyLoss()是output两位为one_hotted编码形式,但target不是one_hotted编码形式。 

 

(2)MSELoss() 举例说明

网络结构不变,但是标签是one_hotted编码形式。下面的图仅做说明,网络结构不太对,出来的预测也不太对。

如果target不是one_hotted编码形式会报错,报的错误如下。

目前自己理解的两者的区别,就是这样的,至于多分类问题是不是也是样的有待考察。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Foneone

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值