神经网络
鲁班班班七号
这个作者很懒,什么都没留下…
展开
-
简单神经网络解决二分类问题示例(Tensorflow)
简单神经网络解决二分类问题示例(Tensorflow)定义神经网络的结构和前向传播输出结果定义损失函数以及选择反向传播优化算法生成会话(tf.Session)并在训练数据上反复运行反向传播优化算法import tensorflow as tffrom numpy.random import RandomStatebatch_size = 8w1 = tf.Variab...原创 2018-07-02 21:49:04 · 2763 阅读 · 0 评论 -
经典语义分割神经网络-----FCN
论文原文链接The natural next step in the progression from coarse tofine inference is to make a prediction at every pixel.In-network upsampling layers enable pixelwise predictionand learning in nets with...原创 2018-11-07 18:32:39 · 387 阅读 · 0 评论 -
经典语义分割神经网络-----SegNet
编码-译码架构主要贡献:将池化层结果应用到译码过程。引入了更多的编码信息。使用的是pooling indices而不是直接复制特征,只是将编码过程中 pool 的位置记下来,在 uppooling 是使用该信息进行 pooling 。...原创 2018-11-09 15:59:09 · 923 阅读 · 0 评论 -
经典卷积神经网络之-----DenseNet
afsdf原创 2018-10-12 17:06:40 · 537 阅读 · 0 评论 -
神经网络目标检测
目标检测(detection)= 目标分类(classification)+定位(localization)原创 2018-09-05 10:37:58 · 1656 阅读 · 0 评论 -
经典卷积神经网络之-----ResNet
经典卷积神经网络之—–ResNET概念Highway Network:解决极深的神经网络难以训练的问题 修改了每一层的激活函数,允许保留一定比例的原始输入x y=H(x,WH)⋅T(x,WT)+x⋅C(x,Wc)y=H(x,WH)⋅T(x,WT)+x⋅C(x,Wc)y=H(x,W_{H})\cdot T(x,W_{T})+x\cdot C(x,W_{c}) 其中,T为变换系数...原创 2018-07-22 21:52:54 · 467 阅读 · 0 评论 -
经典卷积神经网络之-----Google Inception Net
神经网络之—–Google Inception Net特点: 控制了计算量和参数量的同时,获得非常好的分类性能 参数量仅为AlexNet参数量(6000万)的1/12问题: 1.参数越多模型越庞大,需要供给模型学习的数据量就越大 2.参数越多,耗费的计算资源也更大 创新点: 1.模型层数更深; 2.去除模型最后的全连接层,用全局平局池化(global average po...原创 2018-07-21 16:48:25 · 310 阅读 · 0 评论 -
经典卷积神经网络之-----VGG16
经典神经网络之—–VGG161.特点:1.VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠3×3的小型卷积核和2×2的最大池化层,VGGNet成功地构筑了16-19层深的卷积神经网络;2.VGGNet结构简洁,整个网络都使用了同样大小的卷积核尺寸(3×3)和最大池化尺寸(2×2);3.拥有5段卷积,每段内有2-3个卷积层,每段段尾连接一个最大池化层,用来缩小...原创 2018-07-21 13:56:29 · 8285 阅读 · 0 评论 -
经典卷积神经网络之-----AlexNet
经典卷积神经网络之—–AlexNet1.创新点:应用Relu、Dropout和LRN等Relu: 解决了Sigmoid在网络较深时的梯度弥散问题Dropout: 随机忽略部分神经元,避免模型过拟合使用的最大池化,避免平均池化的模糊化效果,步长比池化核尺寸小,有重叠,提升特征的丰富性LRN层:对局部神经元的活动创建竞争机制,使得响应较大的值变得相对较大,抑制反馈较小的神经...原创 2018-07-20 12:15:52 · 307 阅读 · 0 评论 -
深度学习---归一化问题
1.深度模型的激活函数2.激活函数导致的梯度消失3.批量归一化4.自归一化神经网络1.激活函数:多层感知机:目的是近似估计一个未知的函数f(x): x->yf(x) = f1(f2(…fn(x)))如果每一个简单的函数都线性函数,那么复合函数仍然是线性函数所以需要有非线性项2.激活函数导致的梯度消失常见激活函数:sigmoid优点:1.逻辑回归2.导数好计算,光滑...原创 2019-06-18 11:45:54 · 459 阅读 · 0 评论