deep learning
文章平均质量分 57
zhangt766
这个作者很懒,什么都没留下…
展开
-
神经网络梯度消失
解释:梯度消失,好比你在往下走楼梯,楼梯的梯度很小,你感觉不到在下楼......放在ml里面,就是在梯度下降公式里wi = wi−α∂l∂wi 导数部分很小很小,可能接近于0, 导致训练极度缓慢( wi 变化很小),这种现象就叫梯度消失,一般是由训练层的激活函数导致的。以下用一个简单的神经网络和 sigmoid激活函数来解析梯度消失的现象。)求 ∂l∂w1根据链式规则求导,同一路径上各节点的导数相乘,不同路径上各节点的导数相加。可以得出以下导数变换x输入,我们用y=x函数来表示。原创 2022-11-06 10:39:21 · 3553 阅读 · 0 评论 -
深度学习-图像识别
优化模型板块:hyperband,hyperparameters。图片剪裁模块:ImageDataGenerator。原创 2022-10-03 15:00:27 · 590 阅读 · 0 评论