深度学习——CNN
魏长赟老师学生——尹江,关于卷积神经网络(CNN)的学习笔记。
yin_jiang
机器视觉学习者
展开
-
Pytorch&深度学习(一)——优达学城
感知器算法先介绍了一个分类问题,直角坐标系第一象限有两类散点(红色、蓝色)。怎么找出一条直线来区分两类点。方程式:y=W1x1+W2x2+b。但是这是线性的。这就是感知器算法——一个方程式。学习率(learn_rate)找出的感知器算法不准时,需要利用学习率不断调试方程式。不断靠近错误点就行。y_update=W1*(x1±learn_rate)+W2*(x2±learn_rate)+b±...原创 2019-12-06 16:04:17 · 255 阅读 · 0 评论 -
十五天掌握CNN——MobileNet
魏老师学生——Cecil:学习卷积神经网络CNN之旅原创 2019-11-19 08:40:27 · 199 阅读 · 0 评论 -
十五天掌握CNN——Residual Attention Networks ShuffleNet
魏老师学生——Cecil:学习卷积神经网络CNN之旅原创 2019-11-18 08:44:49 · 374 阅读 · 0 评论 -
十五天掌握CNN——DenseNet SeNet
魏老师学生——Cecil:学习卷积神经网络CNN之旅原创 2019-11-16 17:27:53 · 700 阅读 · 0 评论 -
十五天掌握CNN——GoogleNet Inception结构 NIN模型 ResNet
魏老师学生——Cecil:学习卷积神经网络CNN之旅原创 2019-11-15 08:47:12 · 379 阅读 · 0 评论 -
十五天掌握CNN——AlexNet ZF Net VGGNet
魏老师学生——Cecil:学习卷积神经网络CNN之旅 Alex NetZF NetVGGNetAlex NetZF NetVGGNet原创 2019-11-14 08:57:10 · 239 阅读 · 0 评论 -
十五天掌握CNN——典型CNN、LeNet
魏老师学生——Cecil:学习卷积神经网络CNN之旅原创 2019-11-13 09:34:36 · 383 阅读 · 0 评论 -
十五天掌握CNN——深度学习(超参数、训练过程)
魏老师学生——Cecil:学习卷积神经网络CNN之旅原创 2019-11-12 08:53:12 · 1040 阅读 · 0 评论 -
十五天掌握CNN——数据增强、梯度下降
魏老师学生——Cecil:学习卷积神经网络CNN之旅 数据增强(Data augmentation)数据增强的方法样本不均衡训练和测试安排协调梯度下降(Gradient descent)—常用的CNN模型参数求解法批量梯度下降 BGD小批量梯度下降 MBGD随机梯度下降 SGD数据增强(Data augmentation)增加训练数据可提升算法准确率。理由:避免过拟合从而增大网络结构。对于有...原创 2019-11-11 09:19:13 · 1076 阅读 · 0 评论 -
十五天掌握CNN——正则化和Dropout、训练算法、池化层误差反向传播
魏老师学生——Cecil:学习卷积神经网络CNN之旅 CNN正则化和DropoutCNN正则化和Dropout原创 2019-11-10 12:36:23 · 732 阅读 · 0 评论 -
十五天掌握CNN——可视化理解CNN、CNN优缺点、参数初始化、过拟合
魏老师学生——Cecil:学习卷积神经网络CNN之旅 可视化理解CNNCNN优缺点参数初始化权重的初始化偏置项的初始化Xavier过拟合可视化理解CNN保存层级的网络结构。不同层级有不同形式运算和功能。CNN优缺点优点局部感知的共享卷积核,轻松处理高维参数。特征属性不敏感,特征值通过训练权重得到。通过深层次的网络,可以抽取更丰富的图像信息,具有更好的表达效果。缺...原创 2019-11-09 08:16:19 · 1635 阅读 · 0 评论 -
十五天掌握CNN——LN层、IN层、GN层、SN层
魏老师学生——Cecil:学习卷积神经网络CNN之旅 Layer Normalization Layer层Layer Normalization Layer层BN层的缺点:——对batchsize大小敏感,不能设置过小。——BN计算过程需要保存某一层神经网络batch的均值和方差等统计信息,适合定长网络结构DNN CNN,不适用不定长RNN。LN层特点:针对不同样本计算当前样本的所有神...原创 2019-11-08 10:12:34 · 6415 阅读 · 1 评论 -
十五天掌握CNN——池化层、FC层、BN层
魏老师学生——Cecil:学习卷积神经网络CNN之旅 池化层池化层原创 2019-11-07 08:42:54 · 21531 阅读 · 0 评论 -
十五天掌握CNN——激励层
魏老师学生——Cecil:学习卷积神经网络CNN之旅 激励层激励层激励层 Activation Function Layer:将卷积层的输出结果做一次非线性映射,即激活。常用非线性映射函数:Sigmoid(S形函数)、Tanh(双曲正切,双S形函数)、ReLU、Leaky ReLU、ELU、Maxout。...原创 2019-11-06 11:03:35 · 1967 阅读 · 0 评论 -
十五天掌握CNN——卷积计算层
魏老师学生——Cecil:学习卷积神经网络CNN之旅 人的大脑识别图片过程全连接特征局部关联:每个神经元看作一个filter / kernal;窗口滑动,filter对局部数据进行计算;深度depth、步长stride、填充值zero-padding。人的大脑识别图片过程由不同皮质层处理不同方面数据:颜色、形状、光暗等。将不同皮质层处理结果进行合并映射操作。得出最终结果值。前面实...原创 2019-11-05 11:05:48 · 479 阅读 · 0 评论 -
十五天掌握CNN——卷积神经网络简介 & 数据输入层
魏老师学生——Cecil:学习卷积神经网络CNN之旅 神经网络的结构卷积神经网络神经网络的结构神经网络分为输入层、中间层、输出层。如图:卷积神经网络Convolutional Neural Networks CNN:可以有效降低反馈(传统)神经网络的复杂性。常见CNN结构:LeNet-5、AlexNet、ZFNet、VGGNet、GoogleNet、ResNet、DenseNet、S...原创 2019-11-04 08:48:59 · 6848 阅读 · 0 评论