Deep Learning
文章平均质量分 92
深度学习相关知识
栐木
这个作者很懒,什么都没留下…
展开
-
YoloV3详解
目录paper网络结构图数据处理Default anchorsLossFunction LossReference paper https://arxiv.org/pdf/1804.02767v1.pdf 网络结构图 性能上远超Darknet-19,但在效率上同样优于ResNet-101和ResNet-152。下表是在ImageNet上的实验结果: 数据处理 train_pipeline = [ dict(type='LoadImageFromFile', to_float32=True),原创 2021-12-16 15:33:16 · 218 阅读 · 0 评论 -
激活函数总结
目录sigmoidTanhsoftplusReLU(Rectifier Linear Unit)系列ReLULeaky ReLU/ PReLU/ RReLUBReLU(Bounded ReLU)ELUSELUGELUSwishMishMaxoutReference sigmoid 公式: f(x)=11+e−xf(x) = \frac{1}{1 + e^{-x}}f(x)=1+e−x1 图像: Tanh 公式: f(x)=ex−e−xex+e−xf(x) = \frac{e^x - e^{-x}}{e原创 2021-01-08 14:18:25 · 542 阅读 · 0 评论 -
SSD详解
文章目录数据增强网络结构图Loss训练参数 数据增强 每一次训练都是随机在以下操作中选取一种 用原始图像 与目标的overlap的0.1, 0.3, 0.5, 0.7, 0.9中选取一个patch 随机采样一个patch 网络结构图 Loss 训练参数 ...原创 2021-01-08 14:19:34 · 159 阅读 · 0 评论 -
Object-Detection-Loss
文章目录Smooth L1 Loss作用数学公式优点缺点IOU Loss算法介绍优点GIOU Loss算法介绍优点DIOU And CIOU Loss算法介绍DIoU(Distance-IoU)算法优点CIOU Loss(Complete-IoU)算法优点Reference: Smooth L1 Loss 作用 当预测框与 ground truth 差别过大时,梯度值不至于过大; 当预测框与 ground truth 差别很小时,梯度值足够小。 数学公式 损失函数对X的导数分别为: 方程 (4),原创 2020-07-29 19:28:37 · 638 阅读 · 0 评论 -
TensorRT学习-yolov3
TensorRT参考文献特性融合机制图示操作步骤结果 参考文献 https://github.com/NVIDIA/TensorRT https://docs.nvidia.com/deeplearning/sdk/tensorrt-archived/ https://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/index.html https://developer.nvidia.com/tensorrt 特性 量化的时候不损失精度原创 2020-06-23 18:50:52 · 665 阅读 · 1 评论