![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习&机器学习
文章平均质量分 53
真的好困啊QAQ
在校学生一枚~在这里记录自己写出来的程序,分享一下对于自己学习生活中问题的解决思路和个人见解!欢迎私信讨论问题
展开
-
PReLU激活函数
对于通道独立的激活函数,较深的卷积层通常具有较小的系数。换句话说,学习模型倾向于在较早的阶段保留更多的信息,并在更深层次阶段变得更具辨别力。(1)pr只增加了极少量的参数,也就意味着网络的计算量以及过拟合的危险性都只增加了一点点。特别的,当不同chaanels使用相同的ai时,参数就更少了。更新ai时不施加权重衰减(L2正则化),因为这会把ai很大正度上push到0.事实上,即使不施加正则化,实验中ai也很烧有超过1的。顾名思义,带参数的ReLU,两者的定义和区别如下图所示。)在反向传播的过程中,原创 2023-11-20 14:40:47 · 191 阅读 · 0 评论 -
在基于pytorch的深度学习实例中常见问题
关于报错'_SingleProcessDataLoaderIter' object has no attribute 'next'以及在jupyter notebook中执行显示内核挂掉问题的原因原创 2023-08-27 10:25:05 · 162 阅读 · 0 评论