![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 51
Molength
这个作者很懒,什么都没留下…
展开
-
神经网络与深度学习
关于神经网络与深度学习的入门课程,是在今年4月份开始学习的。至今都没有进行系统的总结和回顾。偶然看到一篇较好的博客,作者总结了神经网络与深度学习这本书的所有内容,简而精。特此收藏与分享一下。 1.neural networks and deep learning 学习地址 http://neuralnetworksanddeeplearning.com/index.html2.该书内容总结转载 2017-09-07 09:34:15 · 201 阅读 · 0 评论 -
关于DensePose实验的baseline
数据集:densepose_coco_2014_valminusminival.json backbone:ResNet50 " AP Multi-Tasks" body_uv box keypoint maskbody_uv_only 30.98 45.25 41.48 —keyp...原创 2018-08-01 15:37:12 · 837 阅读 · 1 评论 -
卷积与反卷积的理解
https://blog.csdn.net/gyh_420/article/details/78570415转载 2018-07-27 16:36:09 · 477 阅读 · 0 评论 -
faster-rcnn
https://zhuanlan.zhihu.com/p/31426458转载 2018-07-05 17:59:54 · 131 阅读 · 0 评论 -
caffe2,tensorflow,pytorch中指定固定显卡训练
有一台服务器,服务器上有多块GPU可以供使用,此时只希望使用某几块GPU。 一般来说,深度学习的代码中只会指出GPU的数量,却没有指出使用哪几块,在初次接触的时候很是让人头疼,搜索都没有相关的解决办法。解决方案:可以使用环境变量CUDA_VISIBLE_DEVICES来解决问题(让机器只可见某几块GPU,然后指定GPU数量)。方法一:临时修改环境变量(随改随用,一次有效)expo...原创 2018-07-04 10:25:40 · 1302 阅读 · 0 评论 -
pytroch之数据读取
图片数据一般有两种情况: 1. 所有图片放在一个文件夹内,另外有一个txt文件显示标签。 2. 不同类别的图片放在不同的文件夹内,文件夹就是图片的类别。今天写猫狗大战代码时就遇到了这样的错误,我一直把这两个概念搞混淆。总是把所有不同类别的图片放在同一个没有txt文件显示标签的文件夹中。编译器一直给我报错找不到文件,但是我按着目录找又总是能找到文件!!!!纠结针对这两种不同的情况,数...原创 2018-03-31 16:39:41 · 885 阅读 · 0 评论 -
如何选取Batch Size大小
Batch Size大小的选取:可以一次将数据集中所有数据喂给网络可以一次喂一个样本(即SGD)每次喂一部分数据,喂多次第一种:将参数一次更新数据集大小的数据量 第二种:将参数迭代更新数据集大小次Q:选哪一种大小?适当增加Batch Size大小的优点:通过并行化提高内存利用率。单次epoch的迭代次数减少,提高运行速度。(单次epoch=(全部训练样本/ba...原创 2018-03-30 11:30:18 · 14313 阅读 · 0 评论 -
目标检测中的一些概念
一、IOU定义IOU定义了两个bounding box的重叠度,如下图所示: 矩形框A、B的一个重合度IOU计算公式为:IOU=(A∩B)/(A∪B)就是矩形框A、B的重叠面积占A、B并集的面积比例:IOU=SI/(SA+SB-SI)二、非极大值抑制从一张图片中找出n多个可能是物体的矩形框,然后为每个矩形框为做类别分类概率: 就像上面的图片一样,定位一个车辆,最后算法就找出了一堆转载 2018-01-02 09:38:05 · 739 阅读 · 0 评论 -
Generative Adversarial Nets
说明:以下内容是自己看论文的一些拙见,如有错误请指正。《Generative Adversarial Nets》是Goodfellow大神在受到“二人零和博弈”的影响之后写出的GAN的开山之作。 GAN的基本原理比较简单:假设我们有两个模型,一个用来捕获数据分布的生成模型G(Generator)和一个用来估计样本来自训练数据而不是G的概率的判别模型D(Discriminator),G的训练过程是最原创 2017-10-22 13:06:31 · 310 阅读 · 0 评论 -
VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
VGG和AlexNet都是很经典的模型。而VGG也是在AlexNet的基础之上进行改进的。AlexNet每层仅仅含有一个Convolution层,filter的大小7x7;VGG每层含有2~4个Conv层,filter的大小是3x3(能感受空间最小的filter)。 个人认为,整个文章相比于AlexNet最大的亮点就是更深的卷积层,以及最小的filter。在本文中,作者讨论了ConvNet架构设计原创 2017-10-29 16:04:50 · 352 阅读 · 0 评论 -
ImageNet Classification with Deep Convolutional Neural Networks
说明:一下观点纯属个人学习所得,如果错误欢迎指正 ImageNet Classification with Deep Convolutional Neural Networks 是Hinton和他的学生Alex Krizhevsky在12年ImageNet Challenge使用的模型结构并赢得了2012届的冠军。这样干看也是看不出什么门道的,之前看过目标检测的一些文章,部分是用Alexnet结构原创 2017-10-19 20:46:30 · 515 阅读 · 0 评论 -
Normalization
Normalization的理解Normalization - - “规范化”,是一种对数值的特殊函数变换方法,也就是说假设原始的某个数值是x,套上一个起到规范化作用的函数,对规范化之前的数值x进行转换,形成一个规范化后的数值f(x)。所谓规范化,是希望转换后的数值 满足一定的特性,至于对数值具体如何变换,跟规范化目标有关,也就是说 f( ) 函数的具体形式,不同的规范化目标导致具体方法...原创 2018-12-10 17:05:18 · 508 阅读 · 1 评论