6.1 神经网络基础--基础概念

要了解多次感知器,需要先了解以下几个概念

一、神经元

神经元是基本的信息操作和处理单位。它接收一组输入,将这组输入加权求和后,由激活函数计算该神经元的输出。

二、输入

一个神经元可以接收一组张量作为输入 x = {x₁,x₂,x₃,xn}ᵀ。

三、输出

激活函数的输出 o 即神经元的输出

一个神经元可以有多个输出 o₁,o₂,...,om,对应于不同的激活函数 f₁,f₂,...,fm。

四、连续权值

连续权值向量为一组张量 W = {w₁,w₂,...,wn},其中 wi 对应输入 xi 的连续权值;

神经元将输入进行加权求和 ;

写成向量形式s = Wx

五、偏置

有时候加权求和会加上一项常数项 b 作为偏置,其中张量 b 的形状要与Wx的形状保持一致

s = Wx + b

六、激活函数

激活函数 f(·) 被施加到输入加权和 s 上,产生神经元的输出

这里,若 s 大于 1 阶的张量,则 f(·) 被施加到 s 的每一个元素上:  o = f(s)

在神经网络中,全连接层只是对上层输入进行线性变换,而多个线性变换的叠加仍然是一个线性变换,即含有多个全连接层的神经网络与仅含输出层的单层神经网络等价。

解决问题的一个方法是,在全连接层后增加一个非线性的变换,将非线性变换后的结果作为下一个全连接层的输入。

这个非线性函数被称为激活函数(Activation Function),神经网络可以逼近任意函数的能力与激活函数的使用不可分割。 常见的激活函数有ReLU、Sigmoid、Tanh和Softmax等。

常用的激活函数如下:

1、softmax

Softmax函数常在神经网络输出层充当激活函数,将输出层的值映射到(0,1)区间,将神经元输出构造成概率分布,用于多分类问题中,Softmax激活函数映射值越大,则真实类别可能性越大。

(1)softmax适用于多元分类问题,作用是将分别代表n个类的n个标量归一化,得到这n个类的概率分布:

<
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值