神经网络基础

本文详细介绍了神经网络的基础概念,包括神经元、感知机和神经网络结构,强调了激活函数的重要性,并对比了sigmoid、tanh、ReLU、Leaky ReLU、Parametric ReLU、Maxout和Swish等激活函数的优缺点。同时,文章讨论了深度学习中的正则化技术,如L1&L2正则化,以及优化方法,包括动量法、Adagrad、RMSProp和Adam。最后,探讨了batch norm层和layer norm层的作用。
摘要由CSDN通过智能技术生成

1. 神经网络基础概念

神经网络是机器学习中的一种模型,是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。神经网络最开始是受生物神经系统的启发,为了模拟生物神经系统而出现的。生物神经系统中最基本的计算单元是神经元。

1.1 神经元

每个神经元从它的树突(dendrites)接受输入信号,沿着唯一的轴突(axon)产生输出信号,而轴突通过分支(branches of axon),通过突触(synapses)连接到其他神经元的树突,神经元之间就这通过这样的连接,进行传递。如下图所示:
在这里插入图片描述
为了模拟神经系统,人们就构建了相应的数学模型 也就是“M-P神经元模型”。如下图:

在这里插入图片描述
从上图M-P神经元模型可以看出,神经元的输出是
y = f ( ∑ w i x i + b ) y=f( \sum w_i x_i+b) y=f(wixi+b)

其中 x i x_i xi,是其他神经元沿着轴突通过突触、树突传送到此神经元的输入信号,该神经元通过与对应的 w i w_i wi参数(该参数表示该输入对该神经元影响的大小)相乘、求和等,得到最终的输出。其中 f f f为激活函数(activation funtion), b b b表示偏置项(bias)。

由激活函数给出最后的输出,往往是二进制的,0 状态代表抑制,1 状态代表激活。也就是:

y = { 0 , i f ∑ w i x i + b ≤ 0 1 , i f ∑ w i x i + b > 0 y= \begin{cases} 0, &if \sum w_i x_i+b \le 0\\ 1, &if \sum w_i x_i+b>0 \end{cases} y={ 0,1,ifwix

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值