cnn
文章平均质量分 88
罗小丰同学
思想的碰撞,让我们更加接近真理!
欢迎小伙伴共同前行:245176275/robbebluecp@gmail.com
展开
-
卷积神经网络-BN、Dropout、leaky_relu (tensorflow)
神经网络是一种比较难以理解的结构,关于神经网络的各种层次的说明解释,大家请移步百度、google本次的分享会从人类视觉角度、生物角度谈一谈神经网络中的一些优化算法。 首先,计算机领域设计出来的算法、模型和数据结构,都可以理解为一种建模操作(这是一种解释方式)。比如:决策树,可以理解为把数据结构仿造树枝树干的结构进行设计的,以树为模型;SVM,可以理解为把数据堆从多维的角度,进行高维分类...原创 2018-09-04 16:53:32 · 8308 阅读 · 1 评论 -
CNN中 全局池化和全连接层的相对讨论
一般情况下,在全连接层之前,我们会把池化的feature map进行flatten,比如200个3x3,会拉成1800x1的列向量,而后如果设置了50个神经元,则系统会生成50个1x1800的矩阵跟你的feature map进行矩阵乘法运算——>>> 50 x (1x1800x1800x1) ——>>> 变成一个50个元素的列向量最后如果你要分成10类,...原创 2018-10-11 23:32:50 · 2476 阅读 · 0 评论 -
浅析卷积神经网络为何能够进行特征提取
CNN在分类领域,有着惊人的效果。我们今天来聊聊为何CNN能有这么大的能力。在此之前,我们先了解两个数学概念,特征值和特征向量。这里先放3个传送门:https://blog.csdn.net/hjq376247328/article/details/80640544https://blog.csdn.net/woainishifu/article/details/76418176...原创 2018-11-09 16:56:01 · 38488 阅读 · 7 评论 -
深入理解 Embedding层的本质
继上文https://blog.csdn.net/weixin_42078618/article/details/82999906探讨了embedding层的降维效果,时隔一个月,分享一下嵌入层在NPL领域的巨大作用。 本文的发表建立在了解文本转向量(如one-hot)的用法的前提上。 首先,继续假设我们有一句话,叫“公主很漂亮”,如果我们使用one-hot编码,可能得到的编码如下...原创 2018-11-26 18:58:43 · 13740 阅读 · 23 评论