![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 60
PolukeAdria
稳步前进的小白程序员
展开
-
深度卷积神经网络在目标检测中的进展
作者:travelsea 链接:https://zhuanlan.zhihu.com/p/22045213 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 近些年来,深度卷积神经网络(DCNN)在图像分类和识别上取得了很显著的提高。回顾从2014到2016这两年多的时间,先后涌现出了R-CNN,Fast R-CNN, Faster R-CNN,转载 2016-12-10 14:38:23 · 914 阅读 · 0 评论 -
RNN和LSTM
教程: http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/ 理解LSTM网络: http://www.jianshu.com/p/9dc9f41f0b29 LSTM数学推导: http://www.360doc.com/content/15/1101原创 2016-12-15 20:58:31 · 330 阅读 · 0 评论 -
循环神经网络(RNN)反向传播算法(BPTT)理解
http://blog.csdn.NET/linmingan/article/details/50958304 循环神经网络的反向传播算法其实只是BP算法的一个简单变体而已。 首先我们先看看循环神经网络的前向传播算法: 需要注意的是,该RNN中前一时刻到当前时刻只有一个权重矩阵,该权重矩阵与时间并没有什么关系。整个前向传播算法与BP网络的前向传播算法的差别是多了一转载 2016-12-15 16:51:19 · 2665 阅读 · 0 评论 -
triplet loss 原理以及梯度推导
【前言】 最近,learning to rank 的思想逐渐被应用到很多领域,比如google用来做人脸识别(faceNet),微软Jingdong Wang 用来做 person-reid 等等。learning to rank中其中重要的一个步骤就是找到一个好的similarity function,而triplet loss是用的非常广泛的一种。 【理解triplet】转载 2017-02-25 12:16:41 · 655 阅读 · 0 评论 -
随机采样--MCMC
随机采样随机模拟也可以叫做蒙特卡罗模拟(Monte Carlo Simulation)。这个方法的发展始于20世纪40年代,和原子弹制造的曼哈顿计划密切相关,当时的几个大牛,包括乌拉姆、冯.诺依曼、费米、费曼、Nicholas Metropolis, 在美国洛斯阿拉莫斯国家实验室研究裂变物质的中子连锁反应的时候,开始使用统计模拟的方法,并在最早的计算机上进行编程实现。[3]随机模拟中有一个重要的问题原创 2017-03-10 10:59:40 · 419 阅读 · 0 评论