深度学习笔记(二)神经网络的架构及示例

神经网络的架构

前言

在开始之前,让我们介绍一些terminology(术语)有关于神经网络的架构.
图
如上图所示

  • 最左边layer为input layer/最右边为output layer
  • 在 input layer/output layer 之间的neurons 为input neurons/outpt neurons(输入神经元)
  • 中间layer为hidden layer(因为既不是输入,也不是输出)
    如图
    注意:Somewhat confusingly, and for historical reasons, such multiple layer networks are sometimes called multilayer perceptrons or MLPs, despite being made up of sigmoid neurons, not perceptrons. I’m not going to use the MLP terminology in this book, since I think it’s confusing, but wanted to warn you of its existence.

一个简单的用于分类手写数字的神经网络

首先为了方便识别我们的digit,先对image进行break.

分离前:
分立前
分离后:
在这里插入图片描述
之后对于计算机要如何识别呢?我们举例子来讲,例如5,啊.
针对如何分割的这个问题很好解释,只要我们的模型做的好,我们可以随机分割,如果分割出来的片段带入模型中准确率很高,就证明我们的分割方式是正确的,因此如何分割图片不是那么重要.如何正确的建立神经网络模型很重要.

我们将用一个三层网络来识别分割后的数字
a

input layer 包含有784个 neurons,因为我们分割后的图片的像素为28x28=784.为了简化,上图已经略去了大量的input neurons.且输入的图片为灰度图片,0代表白色,1代表黑色.在这个值中间则代表为灰色阴影部分.

hidden layer的neurons 为 n=15(通过多次的实验得到)

output layer 有 10 个 neurons,如果output layer第一个neuron≈1,及代表其被激活,则识别出数字为0.其他同理.即max(output neurons) (被激活的神经元)为最终识别的数字.

同样也可以这样来得到最终识别的数字
a
tips:binary

补充

具体的我的更多有关deeplearning的文章在我的机器学习专栏内,有兴趣可以详细浏览机器学习专栏.


qiqi

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值