sharon:
卷积核(滤波器)为什么都是奇数
https://blog.csdn.net/qq_26598445/article/details/81285120
sharon:
卷积神经网络的卷积核的数量取多大合适?
https://www.zhihu.com/question/65012947
sharon:
正则化方法:标签平滑
https://blog.csdn.net/qwer7512090/article/details/100700261
sharon:
梯度消失、爆炸的解决方案
https://zhuanlan.zhihu.com/p/33006526
sharon:
目标检测|YOLO原理与实现
https://zhuanlan.zhihu.com/p/32525231
sharon:
深入理解Batch normalization 的作用
https://www.cnblogs.com/hoojjack/p/12350707.html
sharon:
神经网络中的激活函数及其各自的优缺点、以及如何选择激活函数
https://blog.csdn.net/qq_40765537/article/details/106086418
sharon:
https://blog.csdn.net/kuweicai/article/details/93926393
sharon:
如何计算卷积层中对应参数个数?
https://zhuanlan.zhihu.com/p/35333316
sharon:
如何计算卷积层的参数个数
https://blog.csdn.net/david0611/article/details/81750325
sharon:
什么是L1 范数