卷积神经网络
文章平均质量分 57
生产队的驴儿
一个人必须不停地写作,才能不被茫茫人海湮灭。
展开
-
RNN 循环神经网络入门
RNN 循环神经网络定义: 借助 循环核 提取 时间特征后,送入全连接神经网络,实现连续数据的预测。对比卷积神经网络卷积神经网络CBAPD 五个模块通过 卷积核 提取空间信息,送入全连接神经网络。eg: 卷积核提取图片特征,送入网络,进行分类。但是对于时间序列的预测,得使用循环神经网络。循环神经网络循环核: 参数时间共享,循环层 提取时间信息。下图是一个记忆体:存储 每个时刻状态 的信息设定 记忆体 个数改变 记忆体 容量当记忆体个数被指定,输入x,输出y被指定记忆体当天时刻原创 2021-11-28 02:07:35 · 1223 阅读 · 0 评论 -
神经网络五个经典卷积网络总结
五个经典神经网络LeNet: 卷积开篇, 卷积核共享,减少参数。AlexNet: 使用Relu激活函数,提升训练速度,Dropout 避免过拟合。VGGNet: 小尺寸卷积核,减少参数,提升速度,适合 多个机器并行加速。Incepetion Net: 同一层网络,不同卷积核,提升模型感知力。ResNet: 引入残差跳连,避免 网络层数增加引起的 模型蜕化。...原创 2021-11-27 21:51:27 · 289 阅读 · 0 评论 -
卷积神经网络入门五个网络之一 ResNet 网络案例
ResNet 改进点提出层间残差跳连引入前方信息,缓解梯度消失,使得神经网络层数增加 成为可能。前四个四个神经网络的层数网络层数越多,效果越好。但是效果并非如此。RetNet作者 何凯明 发现 56层网络错误率 反而高于20层网络的错误率。提出:单纯堆积神经网络层数 会使得 神经网络模型蜕化, 后面特征 会 丢失前面网络的学习的特征。eg: 下面是在cifar 10上面做的发现。于是 设计出 一根 跳连线, 直接连接 到 前面的特征。这样 既包含了 堆叠卷积的非线性输出F(x)又原创 2021-11-27 21:44:01 · 900 阅读 · 0 评论 -
卷积神经网络入门五大网络之一 Inception Net网络案例
Inception Net引入的Inception 结构块在同一层网络内 使用了 不同尺寸的卷积核,提升了模型感知力。使用了 批标准化,缓解梯度消失问题。其 核心 为 其 基本单元 inception结构块。inception v1 又称为googlenetinception v2inception v3inception v5inception 在同一层网络中,使用了不同尺寸的卷积核,提取不同尺寸的特征。1x1的卷积核: 作用 输入特征图 每个像素点。少于输入特征图 的 1x1 卷积原创 2021-11-27 21:13:33 · 1657 阅读 · 0 评论 -
卷积神经网络入门五大网络之一 VGGNet网络案例
VGGNetVGG的实质:AlexNet增强版VGG网络用了更小的3x3的卷积核,两个连续的3x3的卷积核相当于5x5的感受野。三个3x3的连续的卷积核也就相当于7x7的感受野。VGG池化层特征池化核2x2;AlexNet网络中池化核3x3;从而层数变多,训练参数减少。层数多,提取特征效果好,但是计算量就大了。特点:小尺寸卷积核减少参数提升准确率16层网络 f分别是CBA CBAPT 35CBA CBAPT 35CBA CBA CBAPT 335CBA CBA CBAPT原创 2021-11-26 23:00:50 · 875 阅读 · 0 评论 -
卷积神经网络入门五大网络之一 AlexNet网络案例
AlexNet网络一共为8层前五层都是 卷积层后三层是 全连接神经网络,随机 drop50%的神经元原创 2021-11-26 22:59:53 · 612 阅读 · 0 评论 -
卷积神经网络入门五大网络之一 LeNet网络案例
LeNet共享卷积核 减少网络参数一共五层当时,还没有BN操作,sigmoid是主流激活函数,无drop out层两层 卷积核三层 全连接层使用Lenet训练模型代码import tensorflow as tfimport numpy as npimport matplotlib.pyplot as pltfrom tensorflow import kerasfrom tensorflow.keras import datasets, layers, optimizers, S原创 2021-11-26 22:57:17 · 953 阅读 · 0 评论