自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 卷积神经网络

卷积神经网络来由 全连接前馈网络参数过多 针对视觉世界 像素与像素之间,主要与其附近的像素有关,与其距离较远的像素无关–局部不变性 像素的统计性指标再图像中相对统一–统计平稳性 对于物体的识别不依赖于它在图像中的位置–平移、旋转、缩放不变性 被识别的目标由各个部分构成–构成性 全连接前馈网络很难提取这些局部不变特征 =>⋆\star⋆感受野–视网膜特定区域,只有给区域内的刺激才能激活该神经元 卷积神经网络 对视觉世界特性的利用 局部不变性:核(感受野),局部连接 统计平稳性:权重共享(

2021-09-26 20:46:07 128

原创 深度前馈网络

网络结构 an(l)×1(l)=(Wn(l−1)×n(l)(l))Tzn(l−1)×1(l−1)zn(l)×1(l)=gl(an(l)×1(l))其中,W包含了权重和偏置,每一层增加一个神经元,其值为1;z(1)=x \mathbf{a}^{(l)}_{n^{(l)}\times 1}=(\mathbf{W}^{(l)}_{n^{(l-1)}\times n^{(l)}})^T\mathbf{z}^{(l-1)}_{n^{(l-1)}\times 1}\\ \mathbf{z}^{(l)}_{n^{(l

2021-09-25 14:48:26 61

原创 损失函数理论基础

极大似然 主要思想:给定数据D(可能是一个映射input->output),模型中哪些参数W最有可能产生这种数据D(可能指input在W的作用下生成output的概率$P(output|input;W) )?−>希望参数W代表最大化的)?->希望参数W代表最大化的)?−>希望参数W代表最大化的P(W|D)$->贝叶斯定理: P(W∣D)=P(D∣W)P(W)P(D)=Likelihood×Priornormalizing constantP(D)是标准化常量;我们认

2021-09-24 09:10:19 254

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除