![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 66
ellin_young
这个作者很懒,什么都没留下…
展开
-
yolo_v2训练自己的数据出现Obj: 0.000000, No Obj: 0.000000
用yolo_v2训练自己的数据,,参考各类博客,准备好了数据,修改了配置文件,但训练时不断出现各种问题。刚开始出现loss为nan的情况,经排查是学习速率太大,loss发散了(因训练数据较少,约1500张图片) 再次训练出现Obj: 0.000000, No Obj: 0.000000的情况,这个问题说明网络没有检查到任何物体,截图如下: 解决步骤: 1.上网搜解决方案,有说是数据原创 2017-09-26 20:44:34 · 5305 阅读 · 8 评论 -
tensorflow-slim搭建vgg16
背景:slim是16年推出的,作为tensorflow的高级库。将许多重复的操作进行封装,能大幅度减少代码量,本文便是基于slim实现了vgg16网络的搭建。常用函数:参考 点击打开链接完整定义:import tensorflow as tfimport tensorflow.contrib.slim as slim#inputs:秩为N+2的tensor,如 [batch_size] + ...原创 2018-03-13 18:56:22 · 2869 阅读 · 0 评论 -
STN-Spatial Transformer network
原文:https://arxiv.org/abs/1506.02025 STN是一个独立的模块,可将一个图像或feature map 进行相应空间变换,可在CNN网络的任意位置嵌入任意数量该模块,并不影响原网络速度.STN 实际分为三个部分:①Localisation net: θ=floc(U). 输入是图像或feature map U∈R...原创 2018-05-11 15:20:05 · 851 阅读 · 1 评论 -
MACNN-Learning Multi-Attention Convolutional Neural Network for Fine-Grained Image Recognition
《Learning Multi-Attention Convolutional Neural Network for Fine-Grained Image Recognition》是微软亚洲研究院17年出的一篇细粒度图像识别论文,它的姊妹篇是《Look Closer to See Better: Recurrent Attention Convolutional Neural Network fo...原创 2018-07-08 22:03:57 · 9104 阅读 · 10 评论 -
mixup: BEYOND EMPIRICAL RISK MINIMIZATION
原文:https://arxiv.org/pdf/1710.09412.pdf 代码:https://github.com/hongyi-zhang/mixup摘要:深度神经网络非常强大,但也有一些问题,如强制记忆和对对抗样本的敏感性;本文提出的mixup就是缓解这些问题的一种学习策略。本质上,mixup用样本对和标签对的凸组合(on convex combinations of pa...原创 2018-07-22 19:48:56 · 3274 阅读 · 2 评论 -
(转)机器学习优化问题-经验风险、期望风险、结构风险
文章转载自:https://blog.csdn.net/liyajuan521/article/details/44565269在机器学习中,通常会遇到期望风险、经验风险和结构风险这三个概念,一直不知道这三个概念之间的具体区别和联系,今天来梳理一下:要区分这三个概念,首先要引入一个损失函数的概念。损失函数是期望风险、经验风险和结构风险的基础。损失函数是针对单个具体的样本而言的。表示的是...转载 2018-07-22 20:27:19 · 285 阅读 · 0 评论 -
度量学习(meritc learning)思考
经典论文:FaceNet: A Unified Embedding for Face Recognition and ClusteringDeep Metric Learning via Lifted Structured Feature Embedding简单总结下个人对mertic learning的认知: ①本质是学习一个embedding space,也可以理...原创 2018-07-22 22:01:45 · 6328 阅读 · 0 评论