自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 Training Very Deep Networks公式推导

原论文:Training Very Deep Networks作者:Rupesh Kumar Srivastava Klaus Greff Jurgen Schmidhuber时间:22 Jul 2015本文的大部分观点来自于这篇论文,并且加入了一些自己的理解。该博客纯属读书笔记。假设一个简单的由L层隐层构成的网络,我们令它的参数去拟合函数H

2017-03-26 13:04:52 501 1

原创 图像识别的深度残差学习Deep Residual Learning for Image Recognition

原论文:Deep Residual Learning for Image Recognition作者:Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun (Microsoft Research)时间:Dec 2015本文的大部分观点来自于这篇论文,并且加入了一些自己的理解。该博客纯属读书笔记。神经网络的深度

2017-01-23 15:38:16 3555

原创 googLeNet--Inception四部曲四Inception-ResNet and the Impact of Residual Connections on Learning

原论文:Going deeper with convolutions作者:Christian Szegedy,Wei Liu,Yangqing Jia,Pierre Sermanet,Scott Reed,Dragomir Anguelov,Dumitru Erhan,Vincent Vanhoucke,Andrew Rabinovich时间:February 2012本文

2017-01-11 14:07:22 648

原创 googLeNet--Inception四部曲三Rethinking the Inception Architecture for Computer Vision

原论文:Rethinking the Inception Architecture for Computer Vision作者:Christian Szegedy,Vincent Vanhoucke,Sergey Ioffe,Jonathon Shlens,Zbigniew Wojna时间:Submitted on 2 Dec 2015 (v1), last revised 11 De

2017-01-07 12:00:10 1003 3

原创 googLeNet--Inception四部曲二Batch Normalization

原论文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shiftmini-batchInternal covariate ShiftBatch Normalization

2017-01-05 11:21:08 902

原创 googLeNet--Inception四部曲一Going deeper with convolutions

原论文:Going deeper with convolutions本文的大部分观点来自于这篇论文,并且加入了一些自己的理解。该博客纯属读书笔记。卷积神经网络Inception

2017-01-04 20:55:15 678

原创 多柱深度神经网络——Multi-column Deep Neural Networks for Image Classification

原论文:Multi-column Deep Neural Networks for Image Classification作者:Dan Cires, Ueli Meier and Jurgen Schmidhuber时间:February 2012本文的大部分观点来自于这篇论文,并且加入了一些自己的理解。我尽量用通俗易懂的语言将文章的主要创新点和特别之处讲一遍。创新点1:Mult

2017-01-03 19:43:33 3655

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除