![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 87
程序猿也可以很哲学
深度拖延症+老年痴呆症犯者,
展开
-
OpenPose论文解析
本文是对19年论文,对OpenPose改进版的论文进行解析。因为改进版官方代码未找到,所以本文单纯从论文层面对模型进行解析。本文只对算法流程,模型构建,Loss构成,公式整理,关键要点等进行整合解析,其他部分可以自己祥阅原论文,如贪婪算法的改进,新的脚部数据集等,但不妨碍对OpenPose的整体架构,模型,思想的理解。17年版本论文地址:https://arxiv.org/abs/1611.0805019年版本论文地址:https://arxiv.org/abs/1812.08008OpenPo原创 2021-01-04 12:02:00 · 3442 阅读 · 0 评论 -
踩坑记----Batch Normalization引发的INF或NAN
Batch Normalization是众所周知的好用,但Batch Normalization在某些情况下,却会适得其反。在使用别人的模型训练时,往往因为显存的不足,会导致我们的BatchSize无法设置的较高,当我使用BatchSize=4的情况下,开始Loss会稳定下降,但当一定step之后,会在某个Batch时出现Loss突然变大的情况,在这个Batch之后,Loss会变得越来越大。最终出现INF或者NAN的情况。当Loss出现异常值,往往会优先考虑是否Loss的计算方法存在Bu..原创 2020-11-15 21:20:17 · 3467 阅读 · 0 评论 -
目标检测之AnchorBox详解
Anchor在计算机视觉中称为描点或者描框,在目标检测中,作为描框anchor box应用于各个目标检测的网络模型中,也成为先验框。来历,及应用场景:Anchor最新在Faster rcnn被提出及应用,后被YOLOV2借鉴,及应用与YOLO之后的各个版本。之后的各个目标检测框架都基本采用Anchor Box进行目标检测。那么就要说到,为什么要提出AnchorBox。那就要追根到之前的目标框的选择方式。在Fast rcnn中,要提取2000个候选框,通过Selective Sear.原创 2020-11-04 11:36:00 · 12427 阅读 · 6 评论 -
Normalization vs. Standardization vs. Batch Normalization
Normalization标准化和Standardization归一化,作为ML常用的tricks,大家再熟悉不过,但大家往往只知道基本的计算公式,且没深入了解过,甚至不知道标准化与归一化的区别,也不知道其具体作用,原理等,其次,存在为为什么使用Batch Normalization替代Normallization等问题。于是,我做了一定功课,及归纳如下。一:Normalization归一化和Standardization标准化的定义以上为众所周知的数学公式定义,我们看国外对Normaliz原创 2020-06-11 16:36:23 · 382 阅读 · 0 评论 -
图像随机旋转及坐标进行旋转原理及Python实现
在做人脸或物体检测的任务中,往往需要对训练集进行随机旋转,做数据增强,增加模型的鲁棒性。在进行图像随机旋转的同时,相应的Label值坐标,如人脸关键点检测中人脸对应的关键点坐标,物体检测任务中的物体所在box坐标。(1).原理-------坐标旋转变换公式原理参照博客:https://blog.csdn.net/u012686154/article/details/88854...原创 2020-05-08 16:28:53 · 4646 阅读 · 1 评论 -
踩坑记----keras,训练准确率远高于验证准确率,keras底层代码解剖
前几天,帮朋友处理一个深度学习网络问题,具体场景是这样的,总共有12张,分为3个类别,同时作为训练集跟验证集,训练集跟验证集的预处理一样,使用的模型为ResNet50,最后的激活函数为softmax。使用keras框架,总共10个epoch,每个epoch都是只有1个batch(因为数据集就12张图片,所以一个batch也就12张图片)。在训练前几个epoch时,训练准确率便达到100%,因为...原创 2020-01-22 15:14:50 · 6680 阅读 · 21 评论 -
强化学习---DQN相关知识及代码实现
DQN全名为Deep Q-Network,是结合了Q-learning和深度学习网络的一个网络结构模型。接下来分析DQN的实现流程及细节处理:一:为什么提出DQN:Q-learning作为传统的强化学习算法,功能强大且好实现,但存在一个致命的弱点,便是,Q-learning需要一个状态转移表,来保存状态及决定下一步的action,但当状态很多时,且可采取的行动较多时,这个表格便会...原创 2020-01-15 15:31:40 · 3304 阅读 · 1 评论 -
tensorflow2.0 Post-training quantization
因为tensorflow2.0版本对比tensorflow1.0版本变化较大,所支持的量化方式方法都有所改变,所以重新写一篇文档记录。先附上官方文档:https://www.tensorflow.org/lite/performance/post_training_quantization?hl=en因为tf2.0已经不更新aware-quantization,所以这篇文章重点简...原创 2019-12-25 15:14:11 · 2935 阅读 · 7 评论 -
踩坑记----large batch_size cause low var_acc
有时候,我们在训练模型前期,会出现很高的train_acc(训练准确率),但var_acc(验证准确率)却很低。这往往是因为我们模型在训练过程中已经进入局部最优,或者出现过拟合的现象。造成这种情况有多种原因,我只提出以下几点,有补充的可以在下面留言,我补充。(1).训练数据分布不均匀,可能你的训练数据某一类别占据了大多数,比如95%的数据为苹果,5%的数据为其他类别,那么模型为了拟合训练数据,...原创 2019-12-16 15:21:19 · 930 阅读 · 0 评论 -
TensorFlow剪枝API开发教程
Tensorflow在今年推出剪枝API,可用于对模型剪枝,使模型的大小可以得到压缩,速度得到提升。具体的参考文档为以下两篇:第一篇,tensorflow推出的weixin推文:https://mp.weixin.qq.com/s?__biz=MzU1OTMyNDcxMQ==&mid=2247485959&idx=1&sn=8d27c110d1ff857df9868...原创 2019-12-12 16:46:48 · 2240 阅读 · 20 评论 -
实时目标检测模型-ThunderNet原理详解
ThunderNet是旷视提出来的一个用于目标检测的模型,它是基于Light-Head R-CNN 进行改动,使的模型更轻量级,更快速。上图为ThunderNet的模型结构图ThunderNet输入图片像素为320*320,模型结构主要分为两部分,主干部分backbone part及检测部分detection part,主干部分用于图像特征的提取。检测部分用于候选框的提取及物体的...原创 2019-11-28 22:40:23 · 1001 阅读 · 1 评论