深度学习入门笔记之神经网络基础

深度学习入门

一、神经网络基础

1.人工神经元

从人类神经元中抽象出来的数学模型

在这里插入图片描述

Threshold指的是激活函数 , 当输入达到一定阈值时 , 函数会被激活

∑和Threshold组成了对信息处理的模块 , 对应人类的神经元的细胞核

output对应人类神经元的神经末梢

input对应人类神经元的树突

人工神经网络是大量的人工神经元以某种连接方式构成的机器学习模型

连接的权重表示神经元与神经元之间连接的强弱

o = σ ( < w , x > + b ) o=\sigma(<w,x>+b) o=σ(<w,x>+b) // 其中 , b是指bias表示偏置 , σ表示激活函数

2.多层感知机

单层神经网络基础上引入一个或多个隐藏层 , 使神经网络有多个网络层 , 由此称其为多层感知机

在这里插入图片描述

数据的前向传播 : 以上图为例 , 输入的数据是一个 X 1 ∗ 4 X_{1*4} X14 的向量 , 第一个隐藏层是一个 H 1 ∗ 5 H_{1*5} H15的向量 , 其中的运算过程如下
σ ( X 1 ∗ 4 ⋅ W h ) = H 1 ∗ 5 \sigma (X_{1*4} \cdot W_h )= H_{1*5} σ(X14Wh)=H15
这里 W h W_h Wh是输入层和第一个隐藏层之间的权重矩阵 , σ ( X 1 ∗ 4 ⋅ W h ) \sigma (X_{1*4} \cdot W_h ) σ(X14Wh)是多层感知机的激活函数

多层感知机必须要有激活函数 ,如果没有激活函数的话, 多层感知机就会退化成单层网络 , 以一个包含一层隐藏层的多层感知机为例

在这里插入图片描述

H = X W h + b h H = XW_h+b_h H=XWh+bh

O = H W o + b o O = ( X W h + b h ) W o + b o = X W h W o + b o = X W h W o + b h W o + b o O = HW_o+b_oO = (XW_h+b_h)W_o+b_o=XW_hW_o+b_o=XW_hW_o+b_hW_o+b_o O=HWo+boO=(XWh+bh)Wo+bo=XWhWo+

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值