- 博客(6)
- 资源 (6)
- 收藏
- 关注
转载 Rethinking the Inception Architecture for Computer Vision
原文地址:blog.csdn.net/cv_family_z/article/details/50789805Googlenet的延伸,通过对Inception module进行卷积分解展开网络,在ILSVRC 2012上,4个模型集成及多次裁切,top-1位为17.3%,top-5为3.5%。GoogleNet的优势:从参数数量来看,GoogleNet参数为500万个,AlexNet
2016-10-30 21:37:31 305
转载 一份关于深度学习论文的总结笔记
原文地址:http://www.tuicool.com/articles/miQZBznNLPStrategies for Training Large Vocabulary Neural Language Models[arXiv] Multilingual Language Processing From Bytes[arXiv] Learning Docume
2016-10-30 19:40:34 2799
转载 GoogLeNet系列解读
原博客地址本文介绍的是著名的网络结构GoogLeNet及其延伸版本,目的是试图领会其中的思想而不是单纯关注结构。GoogLeNet Incepetion V1MotivationArchitectural DetailsGoogLeNetConclusionGoogLeNet Inception V2IntroductionGeneral Des
2016-10-29 21:57:58 1016
转载 CNN 中, 1X1卷积核到底有什么作用呢
http://www.caffecn.cn/?/question/136 摘抄于这里从NIN 到Googlenet mrsa net 都是用了这个,为什么呢发现很多网络使用了1X1卷积核,这能起到什么作用呢?另外我一直觉得,1X1卷积核就是对输入的一个比例缩放,因为1X1卷积核只有一个参数,这个核在输入上滑动,就相当于给输入数据乘以一个系数。不知道我理解的是否正确。我来说说
2016-10-29 21:51:22 365
转载 深入浅出CUDA编程
CUDA 是 NVIDIA 的 GPGPU 模型,它使用 C 语言为基础,可以直接以大多数人熟悉的 C 语言,写出在显示芯片上执行的程序,而不需要去学习特定的显示芯片的指令或是特殊的结构。”编者注:NVIDIA的GeFoce 8800GTX发布后,它的通用计算架构CUDA经过一年多的推广后,现在已经在有相当多的论文发表,在商业应用软件等方面也初步出现了视频编解码、金融、地质勘探、科
2016-10-27 20:01:28 571
转载 Dropout浅层理解与实现
Dropout浅层理解与实现原文地址:http://blog.csdn.net/hjimce/article/details/50413257作者:hjimce一、相关工作 本来今天是要搞《Maxout Networks》和《Network In Network》的,结果发现maxout和dropout有点类似,所以就对dropout做一下相关的总结,了解一下其代码层面的实现
2016-10-25 09:39:57 255
DriveInstall_5.0.5.0bL_SDK_b3.run
2018-08-15
python3.6源码
2018-08-11
imageclipper20081208
2016-03-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人