- 博客(3)
- 收藏
- 关注
原创 卷积神经网络
卷积神经网络来由 全连接前馈网络参数过多 针对视觉世界 像素与像素之间,主要与其附近的像素有关,与其距离较远的像素无关–局部不变性 像素的统计性指标再图像中相对统一–统计平稳性 对于物体的识别不依赖于它在图像中的位置–平移、旋转、缩放不变性 被识别的目标由各个部分构成–构成性 全连接前馈网络很难提取这些局部不变特征 =>⋆\star⋆感受野–视网膜特定区域,只有给区域内的刺激才能激活该神经元 卷积神经网络 对视觉世界特性的利用 局部不变性:核(感受野),局部连接 统计平稳性:权重共享(
2021-09-26 20:46:07 128
原创 深度前馈网络
网络结构 an(l)×1(l)=(Wn(l−1)×n(l)(l))Tzn(l−1)×1(l−1)zn(l)×1(l)=gl(an(l)×1(l))其中,W包含了权重和偏置,每一层增加一个神经元,其值为1;z(1)=x \mathbf{a}^{(l)}_{n^{(l)}\times 1}=(\mathbf{W}^{(l)}_{n^{(l-1)}\times n^{(l)}})^T\mathbf{z}^{(l-1)}_{n^{(l-1)}\times 1}\\ \mathbf{z}^{(l)}_{n^{(l
2021-09-25 14:48:26 61
原创 损失函数理论基础
极大似然 主要思想:给定数据D(可能是一个映射input->output),模型中哪些参数W最有可能产生这种数据D(可能指input在W的作用下生成output的概率$P(output|input;W) )?−>希望参数W代表最大化的)?->希望参数W代表最大化的)?−>希望参数W代表最大化的P(W|D)$->贝叶斯定理: P(W∣D)=P(D∣W)P(W)P(D)=Likelihood×Priornormalizing constantP(D)是标准化常量;我们认
2021-09-24 09:10:19 254
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人