深度学习—神经元

深度学习可以说是目前“人工智能浪潮”火热的一个根本原因,就是因为它的兴起,其中包括深度神经网络、循环神经网络和卷积神经网络的突破,让语音识别、自然语言处理和计算机视觉等基础技术突破以前的瓶颈。而要了解深度学习,就必须首先了解“深度学习”的前身,神经网络与神经元的概念。

一、神经元的构成
神经元可以说是深度学习中最基本的单位元素,几乎所有深度学习的网络都是由神经元通过不同的方式组合起来。

一个完整的神经元由两部分构成,分别是“线性模型”与“激励函数”。
在这里插入图片描述

1.线性模型
(1)构成
假设这个线性模型的函数: y=wx+b,其中x是一个1N维的向量矩阵,矩阵中的每个向量值即代表样本一个特征的值,w为N1的权重矩阵(对应向量的所占的比重),b为偏置项。

(2)工作流程

以判定一个苹果的品质为例,我们假定y代表品质变量,x为1×3矩阵,w为3×1矩阵(偏置忽略为0的情况下),具体如下

在这里插入图片描述
在这里插入图片描述
x矩阵里的向量值“1、2、3”分别代表一个数据中提取出来的特征向量的值。
w矩阵里的“0.2、0.6、0.7”分别代表每个特征向量的权重取值大小。

这两个矩阵相乘,最终会得到一个实数(涉及到数学矩阵运算,并非所有都会是实数哦~)
1X0.2+2X0.6+3X0.7=3.5
得到的3.5即我们拟合出来的一个苹果的品质假定为y1,用这个值与已经标定好的真实品质y0做差,就可以得到一个数据的拟合值与真实值的误差,
在这里插入图片描述
通过这个函数来描述所有数据拟合值与真实值之间的关系即loss(损失函数),之后通过反向传播,反作用于w和b 使得loss越来越小,也就是说通过反向传播让参数矩阵成为一个近乎拟合真是值的H(x)

2.激励函数
(1)激励函数的作用
激励函数位于一个神经元线性模型之后,也有翻译成激活函数。它的作用有两个:

加入“非线性”因素
根据不同训练目的的需要,进行数学函数映射
为什么要加入“非线性”因素,那是因为“现实世界”的数据不可能都是线性的,如果你强行用“线性模型”去拟合非线性数据,最后得到的结果肯定是“欠拟合”

其中sigmoid可以实现一个简单的概率分类判断,假定“0”和“1”各代表一个概念,那么最后的输出在区间【0,1】,更接近“1”,就代表它是更可能是“1”所代表的概念

激励函数的种类实在很多,应用的场景也各不相同,比较常见的除了上面提到的Sigmoid函数外,还有多用于RNN(循环神经网络)的Tanh函数,大部分用于CNN(卷积神经网络)的ReLU函数,以及Linear函数等。
总之每个激励函数都有自己的“个性”(特性),根据不同的算法模型和应用场景,会搭配使用不同的激励函数,当然最终的目的只有一个,就是让算法模型收敛的越快,拟合的越好.

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值