2.损失
- CrossEntropyLoss交叉熵,分类问题
x越大越好,output里的数越小越好,0.8,0.8,0.9就不好,只有一个高就行0.1,0.7,0.2就好
关注input和targets的格式
-0.2+ln(e^0.1+e^0.2+e^0.3)
3.神经网络中的训练次数是训练时,1个batch训练图像通过网络训练一次(一次前向传播+一次后向传播),每迭代一次权重更新一次;测试时,1个batch测试图像通过网络一次(一次前向传播)的次数。50000/64=781 即0-780训练781次是一轮
4.argmax
5.gpu