deep learning
zhangwenjie89
这个作者很懒,什么都没留下…
展开
-
Faster rcnn代码解析
最近工作需要,对faster rcnn的代码进行了研究。faster rcnn中除开常规的神经网络部分之外,最终要的部分应该是数据的读取和组织,论文中提到的anchor的生成,以及如何使用这些anchor去进行loss的计算,pooling layer也是一个custom layer,, 但并不是本文的创新,在fast rcnn中就有提到。首先我们来看数据读取和组织的部分。faster rcn原创 2016-07-24 15:59:54 · 8618 阅读 · 0 评论 -
Concepts and Tricks In CNN
这篇文章主要讲一下Convolutional Neural Network(CNN)里面的一些概念以及技巧。Receptive Field (感受野)这是一个非常重要的概念,receptive field往往是描述两个feature maps A/B上神经元的关系,假设从A经过若干个操作得到B,这时候B上的一个区域areabareab只会跟a上的一个区域相关areaaareaa转载 2016-08-09 17:44:08 · 743 阅读 · 0 评论 -
深度学习你不可不知的技巧
Deep Neural Networks, especially Convolutional Neural Networks (CNN), allows computational models that are composed of multiple processing layers to learn representations of data with multiple level转载 2017-03-02 15:47:39 · 1638 阅读 · 0 评论 -
TensorFlow四种Cross Entropy算法实现和应用
交叉熵介绍交叉熵(Cross Entropy)是Loss函数的一种(也称为损失函数或代价函数),用于描述模型预测值与真实值的差距大小,常见的Loss函数就是均方平方差(Mean Squared Error),定义如下。平方差很好理解,预测值与真实值直接相减,为了避免得到负数取绝对值或者平方,再做平均就是均方平方差。注意这里预测值需要经过sigmoid转载 2017-08-11 17:50:13 · 318 阅读 · 0 评论