Deep Learning
文章平均质量分 92
深度学习相关知识
栐木
这个作者很懒,什么都没留下…
展开
-
YoloV3详解
目录paper网络结构图数据处理Default anchorsLossFunction LossReferencepaperhttps://arxiv.org/pdf/1804.02767v1.pdf网络结构图性能上远超Darknet-19,但在效率上同样优于ResNet-101和ResNet-152。下表是在ImageNet上的实验结果:数据处理train_pipeline = [ dict(type='LoadImageFromFile', to_float32=True),原创 2021-12-16 15:33:16 · 227 阅读 · 0 评论 -
激活函数总结
目录sigmoidTanhsoftplusReLU(Rectifier Linear Unit)系列ReLULeaky ReLU/ PReLU/ RReLUBReLU(Bounded ReLU)ELUSELUGELUSwishMishMaxoutReferencesigmoid公式:f(x)=11+e−xf(x) = \frac{1}{1 + e^{-x}}f(x)=1+e−x1图像:Tanh公式:f(x)=ex−e−xex+e−xf(x) = \frac{e^x - e^{-x}}{e原创 2021-01-08 14:18:25 · 593 阅读 · 0 评论 -
SSD详解
文章目录数据增强网络结构图Loss训练参数数据增强每一次训练都是随机在以下操作中选取一种用原始图像与目标的overlap的0.1, 0.3, 0.5, 0.7, 0.9中选取一个patch随机采样一个patch网络结构图Loss训练参数...原创 2021-01-08 14:19:34 · 170 阅读 · 0 评论 -
Object-Detection-Loss
文章目录Smooth L1 Loss作用数学公式优点缺点IOU Loss算法介绍优点GIOU Loss算法介绍优点DIOU And CIOU Loss算法介绍DIoU(Distance-IoU)算法优点CIOU Loss(Complete-IoU)算法优点Reference:Smooth L1 Loss作用当预测框与 ground truth 差别过大时,梯度值不至于过大;当预测框与 ground truth 差别很小时,梯度值足够小。数学公式损失函数对X的导数分别为:方程 (4),原创 2020-07-29 19:28:37 · 656 阅读 · 0 评论 -
TensorRT学习-yolov3
TensorRT参考文献特性融合机制图示操作步骤结果参考文献https://github.com/NVIDIA/TensorRThttps://docs.nvidia.com/deeplearning/sdk/tensorrt-archived/https://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/index.htmlhttps://developer.nvidia.com/tensorrt特性量化的时候不损失精度原创 2020-06-23 18:50:52 · 672 阅读 · 1 评论