DL 基础
小鹏聊智驾
上汽智驾搬砖
展开
-
一文搞懂卷积神经网络CNN
文章目录1 简介2 卷积层2.1 valid卷积2.2 full卷积2.3 same卷积3 池化层4 反卷积层5 工程tricks5.1 数据增强5.2 批次归一化5.3 参数初始化5.4 超参数设置5.5 过拟合与欠拟合6 LeNet-51 简介因为图像规模较大,所以此前提及的感知机与神经网络表现一般,由此,卷积神经网络应运而生。卷积神经网络因卷积操作而得名,取代了全连接神经网络中一般的矩阵乘法运算。CNN 通过卷积来提取特征,同时利用卷积的权值共享与池化操作降低了计算成本。如下图所示,CNN 通常包原创 2020-05-27 21:57:09 · 781 阅读 · 0 评论 -
一文搞懂深度神经网络
文章目录1 简介2 前向传播2.1 FP流程2.2 激活函数2.3 损失函数3 反向传播3.1 BP流程3.2 梯度下降3.3 梯度下降训练策略3.4 梯度下降优化算法4 实例1 简介如下图所示,NN 是感知机的升级版,由输入层,若干隐藏层,输出层组成。其主要包含前向传播,反向传播等过程,下文会逐一分享。2 前向传播2.1 FP流程与感知机类似,从输入层到输出层逐层计算,最后利用损失函数计算拟合误差。其中,核心就是神经元节点的权值计算,公式如下。xjl=∑kwjklykl−1+bjlyjl=σ原创 2020-05-25 16:57:32 · 2112 阅读 · 0 评论 -
一文搞懂单层感知机
文章目录1 单层感知机1.1 结构1.2 学习规则1.3 学习率1.4 收敛条件1.5 案例1 单层感知机1.1 结构如下图所示,其实质就是一种映射关系。1.2 学习规则实质是更新权值,具体过程见如下公式。y=f(∑i=1nxi⋅wi)y=f\left(\sum_{i=1}^{n} x_{i} \cdot w_{i}\right)y=f(∑i=1nxi⋅wi)其中,i=0,1,2,…; y是网络输出;f是sign函数Δwi=η(t−y)xi\Delta w_{i}=\eta(原创 2020-05-22 19:56:16 · 1687 阅读 · 0 评论