![](https://img-blog.csdnimg.cn/20190918140129601.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
讲解深度学习基础知识
LiuHDme
计算机硕士在读
研究领域:搜广推
展开
-
Pytorch官方教程——迁移学习
这篇文章翻译自 Pytorch 官方教程 Transfer Learning Tutorial原作者:Sasank ChilamkurthyNote: 点击这里下载完整示例代码在这篇教程中,你将会学到如何利用迁移学习来训练你的网络。你可以通过 cs231n notes 了解更多关于迁移学习的信息。引用 cs231n notes 中的一段话在实践中,很少有人会从头开始训练一个卷积...翻译 2020-03-11 15:03:38 · 606 阅读 · 0 评论 -
LSTM 详细公式与图解
Gated Recurrent UnitGRU 和 LSTM 都可以很好的解决 RNN 中的梯度消失问题,而 GRU 与 LSTM 在某些方面很相似,为了阐述 LSTM,先阐述 GRU。下图所示是普通 RNN 单元GRU 的 RNN 单元与其类似,但有所不同,其中对于 a 的计算分为三部:计算 a~⟨t⟩=tanh(wa[a⟨t−1⟩,x⟨t⟩]+ba)\tilde{a}^{\lan...原创 2020-03-09 01:50:17 · 6265 阅读 · 0 评论 -
一些经典 CNN
在计算机视觉的发展过程中,出现了很多经典的卷积神经网络模型,它们对后来的研究有很大影响,这篇文章简要谈谈 LeNet-5、AlexNet 和 VGGNet.LeNet-5LeNet-5 是由 LeCun 在 1998 年的一篇论文中提出的,与今天的一些神经网络相比,LeNet-5 是一个小型神经网络,它只有大约 60000 个参数,而今天经常会有包含千万到亿量级参数的神经网络,我们先来看一...原创 2020-03-09 01:44:22 · 343 阅读 · 0 评论