PyTorch深度学习实战(4)——常用激活函数和损失函数详解 0. 前言 1. 常用激活函数 1.1 Sigmoid 激活函数 1.2 Tanh 激活函数 1.3 ReLU 激活函数 1.4 线性激活函数 1.5 Softmax 激活函数 2. 常用损失函数 2.1 均方误差 2.2 平均绝对误差 2.3 分类交叉熵 2.4 实现自定义损失函数 小结 系列链接 </