深度学习笔记
文章平均质量分 53
小姜贼菜
各位大佬,多多指点
展开
-
关于SIoU的原理和代码实现(回顾IoU、GIoU、DIoU、CIoU)
关于SIoU的实现(回顾IoU、GIoU、DIoU、CIoU)原创 2022-06-06 10:40:55 · 12346 阅读 · 16 评论 -
深度学习googlenet
1.网络结构2.Inception3.原创 2021-03-21 17:08:52 · 80 阅读 · 0 评论 -
深度学习图像分类Resnet网络结构以及代码分析
1.创新点:1.1 超深的网络超深的网络存在 梯度弥散或者梯度爆炸(比如反向传播的过程中我的值是0.9那么100层之后就是0.92100 ≈\approx≈ 0) 大于1则是∞。1.2 解决方法residual(残差)模块,这里看到有两种残差,一种是虚线的,一种是实线的。1.3 BN是一种归一化的手段,用在卷积和激活函数之间的函数。具体可以参考这个大佬的博客(我目前都是跟着这个大佬学习):https://blog.csdn.net/qq_37541097/article/details/1原创 2021-02-08 00:22:40 · 1665 阅读 · 0 评论 -
深度学习分类基础概念对ACC、PPV、TPR、TNR
举个例子:ACC = 10+15 +20/(10+1+2+3+14+4+5+6+20)PPV(猫) = 10/(10+1+2) 【解释】这里的1和2是因为狗、猪分类错误,分到了猫PPV(狗) = 15/(15+6+1)PPV(猪) = 20/(20+5+6)TPR(猫) = 10/(10+3+5)原创 2020-12-15 10:10:36 · 7085 阅读 · 0 评论 -
深度学习 激活函数(续)tanh、Relu、Leaky Relu
tanh函数tanh函数是右上角那个,可以看到他是sigmoid函数的放大加平移,它的值域(−1,1)(-1,1)(−1,1),它在绝大多数场合取代了sigmoid函数,因为函数值域在-1 和+1的激活函数,其均值是更接近零均值的。在训练一个算法模型时,如果使用 tanh 函数代替sigmoid 函数中心化数据,使得数据的平均值更接近 0 而不是 0.5。【注】可以看到在我之前写的二分类的性别分类中,最后的输出层用了sigmoid函数,在二分类问题中,sigmoid函数可以把概率变成0-1之间。这两.原创 2020-11-24 20:30:36 · 2044 阅读 · 1 评论