深度学习
文章平均质量分 90
阿奴波仔
励志成为程序员!
展开
-
DBNet 论文笔记
白翔老师组、旷视科技、上交 2019年发表在AAAI上的一篇文字检测论文,提出的模型简称DBNetDBNet 中的 DB是 Differentiable Binarization 的缩写,翻译为可微分的二值化。在 DBNet 中,分割结果的二值化后处理可以随着模型一起训练,得到一个自适应的阈值。自适应的阈值也可以使得后处理变得简单,提升进度,也提高速度。我理解整体的思路是预测收缩核心区,并且通过自适应阈值提高边缘的准确性。预测时用收缩核心区反向扩张得到完整文字框。开源代码:https://github原创 2021-07-24 17:32:16 · 1177 阅读 · 0 评论 -
Designing Network Design Spaces 翻译笔记(一)
2020年何凯明组的论文,主旨是借助NAS(神经网络搜索)技术,探索出更加一般化的卷积网络设计准则。简介这幅图的描述中解释了设计空间和演进方式。简单说来,设计空间是一组参数化的可能得网络结构。我个人理解就是组网时候的约束参数,然后生成了非常多的结构。通过采样设计空间中具体的网络,并且测算他们的误差分布,来描述这个设计空间的好坏。例如设计空间A,经过两步优化之后,得到设计空间B和C,同时B和C...原创 2020-04-06 16:41:35 · 1158 阅读 · 2 评论 -
paddle 尝试实现 focal loss
paddle 里面没有 focal loss 的API,不过这个loss函数比较简单,所以决定自己实现尝试一下。在 paddle 里面实现类似这样的功能有两种选择:使用 paddle 现有的 op 去组合出来所需要的能力自己实现 oppython 端实现 opC++ 端实现 op两种思路都可以实现,但是难度相差很多,前者比较简单,熟悉 paddle 的数学操作,理解公式含义即可...原创 2019-05-30 09:23:29 · 2270 阅读 · 0 评论 -
YOLOv3训练过程记录
在做YOLOv3检测的时候,第一阶段,一直使用 RMS 优化器,最多的时候训练200轮。"rsm_strategy": { "learning_rate": 0.001, "lr_epochs": [40, 80, 120, 160], "lr_decay": [1, 0.5, 0.25, 0.1, 0.02],}初始的学习率测试过 0.01,0.001,0.005...原创 2019-06-19 10:38:24 · 8085 阅读 · 0 评论