卷积神经网络基础题——CNN中为什么用ReLU,而不用Sigmoid?
最新推荐文章于 2024-04-08 00:16:23 发布
卷积神经网络中,ReLU因其稀疏性优势常优于Sigmoid。ReLU的输出更稀疏,有助于寻找和拟合特征,提高模型训练效率。Sigmoid虽然输出范围在0到1之间,但稀疏性不足,可能导致训练难题。
摘要由CSDN通过智能技术生成