立即学习:https://edu.csdn.net/course/play/5664/109825?utm_source=blogtoedu
神经网络中常用的激活函数:
自适应学习率:
动量梯度下降:
adam方法使用了动量思想,训练过程中可以默认该优化器
立即学习:https://edu.csdn.net/course/play/5664/109825?utm_source=blogtoedu
神经网络中常用的激活函数:
自适应学习率:
动量梯度下降:
adam方法使用了动量思想,训练过程中可以默认该优化器