生物神经元的工作原理对深度学习神经元的启发

https://www.toutiao.com/a6669391886744027662/

 

近年来,"深度学习"AI模型经常被吹捧为"像大脑一样工作",因为它们由模仿生物大脑的人工神经元组成。然而,从神经科学家的角度来看,深度学习神经元和生物神经元之间的差异是众多且不同的。

生物神经元的工作原理对深度学习神经元的启发

 

本文将首先描述生物神经元的一些关键特征,以及如何简化它们以获得深度学习神经元。然后我们将推测这些差异如何对深度学习网络施加限制,以及如何朝着更现实的生物神经元模型的方向发展,如我们目前所知道的那样。

生物神经元

典型的生物神经元是单个细胞,每个细胞由细胞主体和从该体延伸的许多卷须组成。身体或体细胞容纳用于维持基本细胞功能和能量加工的机器(例如,含有DNA的细胞核,以及用于构建蛋白质和加工糖和氧的细胞器)。有两种类型的卷须:树突,从其他神经元接收信息并将其带到细胞体;轴突,从细胞体发送信息到其他神经元。

生物神经元的工作原理对深度学习神经元的启发

 

从发射神经元到接收神经元的信息传输大致由三个阶段组成。首先,发射神经元产生空间和时间限制的电脉冲或尖峰,其沿着神经元的轴突(和轴突分支)从细胞体行进到轴突的末端。通过突触将传递神经元的轴突末端"连接"到接收神经元的树突。尖峰导致传递神经元的突触释放化学物质或神经递质,它们通过扩散在两个神经元之间短距离传播。

生物神经元的工作原理对深度学习神经元的启发

 

当神经递质分子与受体结合时,接受神经元上的特化受体识别(结合)特定的神经递质,并启动许多细胞事件(大多数在本文中被忽略)。其中一个事件是细胞通道的开放,它引发另一个电波,这次通过接收神经元的树突传播到它的细胞体(这可能是一个尖峰的形式,但通常这个波在空间上扩散比尖峰更多 - 基于轴突的传播 - 想想水被推入管道中。

因此,来自一个神经元的信息可以传输到另一个神经元。当神经元从多个发射神经元接收到多个兴奋性尖峰时,该电能在神经元的细胞体内累积,如果在短时间内积累了足够的能量,神经元将产生其自身的外向尖峰,并将它们转发给其他神经元。

为了理解从生物神经元到深度学习神经元的建模,还有三个方面需要讨论。

  • 速率编码
  • 突触强度
  • 兴奋和抑制性传播

速率编码

仅接收少量兴奋性尖峰的神经元将产生并发送其自身的少量尖峰(如果有的话)。如果同一神经元接收到许多兴奋性尖峰,它将(通常)发送自己的许多尖峰。虽然生物神经元中的尖峰具有明显的时间特征,但是在深度学习神经元中时间分辨率是"模糊的"。对于给定的时间单位,深度学习神经元的尖峰活动表示为多个尖峰(整数)或更典型地,平均尖峰速率(浮点数)。

生物神经元的工作原理对深度学习神经元的启发

 

在这个设计的例子中,视觉系统中的三个神经元接收来自眼睛中三组颜色敏感锥体细胞之一的间接输入。因此,每个神经元对特定波长的光具有最大响应,并且尖峰活动被报告为平均尖峰速率(归一化为[0,1])。因此,输入波长由三个神经元的集体尖峰率"编码"。

然而,请注意,在生物神经元中,信息以个体或多个神经元中的尖峰的相对时间编码,而不仅仅是在个体神经元尖峰速率中。因此,在深度学习神经元中不存在这种类型的信息编码和传输。其影响将在下面进一步讨论。

突触强度

并非所有尖峰都是平等的。当传播的尖峰到达轴突末端时,最终在接收神经元的树突中产生的电能量取决于插入的突触的强度。这种强度反映了许多潜在的生理因素,包括可用于在传递神经元中释放的神经递质的量和接受神经元上的神经递质受体的数量。

生物神经元的工作原理对深度学习神经元的启发

 

无论如何,在深度学习神经元中,突触强度由单个浮点数表示,并且通常被称为突触的权重。

兴奋性和抑制性神经递质

到目前为止,我们只考虑了兴奋性神经传递。在这种情况下,从发射神经元接收的尖峰增加了接收神经元也会出现尖峰的可能性。这是由于受体神经元上活化受体的特殊性质。虽然过于简单化,但人们可以将神经递质及其受体分为兴奋类和抑制类类。当抑制性神经递质与抑制性受体结合时,接受神经元中树突的电能减少而不是增加。

通常,神经元具有兴奋性和抑制性神经递质的受体,但是可以仅释放(传递)一类或另一类。

在哺乳动物皮层中,与抑制神经元(每个尖峰释放神经递质GABA)相比,存在更多的兴奋性神经元(其与每个尖峰释放神经递质谷氨酸)。尽管如此,这些抑制性神经元对于增加接收神经元的信息选择性,关闭神经元对于信息路由以及防止癫痫活动(网络中许多神经元的混乱发射)非常重要。

在深度学习网络中,兴奋性和抑制性神经元(分别仅具有兴奋性或抑制性神经递质的神经元)之间没有区别。所有神经元的输出活动都大于零,它是模型抑制的突触。允许突触的权重为负,在这种情况下,来自发射神经元的输入导致接收神经元的输出减少。

深度学习神经元

如上所述,可以组装生物神经元的简化模型以在深度学习模型中形成定型神经元。

  1. 深度学习神经元接收来自其他神经元的输入或激活。激活是生物神经元尖峰的速率编码表示。
  2. 激活乘以突触权重。这些权重是生物神经元中突触强度的模型,也是模型抑制性传递的模型,因为权重可以取负值。
  3. 将加权激活相加在一起,对在生物神经元的细胞体中发生的累积过程进行建模。
  4. 将偏差项加到总和上,模拟神经元的一般敏感性。
  5. 最后,求和值由激活函数整形 - 通常限制最小或最大输出值(或两者),例如S形函数。这模拟了生物神经元的固有最小尖峰速率(零)或最大速率(由于产生尖峰的生理机制中的细节)。

生物神经元的工作原理对深度学习神经元的启发

 

推进人工智能

时间编码

深度学习依赖于基于速率的编码,其中每个神经元的激活是单个数值,其模拟响应于给定刺激的平均尖峰速率(来自其他神经元或来自外部刺激)。集体组网络的单个层内尖峰率值通常被组织为数字向量,并且该载体被称为表示外部刺激。

基于速率的神经编码的表达性远低于基于多个神经元上的尖峰之间的相对时间的神经代码(表示)可能的表达。作为生物学中存在这种类型代码的一个简单例子,考虑听觉系统。当声波到达我们的耳朵时,我们的大脑处理它们以确定产生声音的动物,物体或现象的类型,还估计声音来自的方向(本地化))。确定声音位置的一种方式是基于以下事实:来自右侧的声音将首先到达右耳,然后是左耳。靠近右耳和左耳的听觉神经元表现出反映这种声学定时差异的尖峰定时。由于这种时间编码,听觉神经元位于更靠内侧(靠近身体中线)接收来自两耳附近的神经元的输入并且对声音的位置具有选择性。

生物神经元的工作原理对深度学习神经元的启发

 

声信息通过外耳进入大脑,并通过左右耳蜗(图像中的螺旋)转换为听觉神经中的尖峰。方位角位置的感知部分地由耳朵处的声音到达时间差决定,其被编码为大脑左侧与右侧的听觉神经元中的尖峰的时间差异。身体中线附近的听觉神经元群对该时间编码敏感,并且选择性地响应入射声音的感知位置(方位角,仰角)。

更一般地,考虑单个神经元接收来自另外两个神经元的输入的简单示例,每个神经元发送相同的输入:在100ms内均匀间隔(在时间上)的短的N系列兴奋性尖峰。在其他条件相同的情况下,这将在接收神经元中产生一些刻板的反应。相反,如果其中一个输入神经元在前20毫秒(100毫秒间隔)内发出全部尖峰,而另一个输入神经元在最后20毫秒内发送了所有尖峰,则接收神经元的响应是可能会有显着的不同。因此,即使输入神经元的尖峰率在每个场景中相同(10N尖峰/秒),时间编码也是完全不同的,并且接收神经元的响应也可能非常不同。重要的,使用时间码时可能存在许多输入 - 输出组合,即使输入尖峰的数量很少,不变或两者兼而有之。这就是我们所说的更具表现力的编码方案。关于AI,利用时间编码的模型可以想象为执行比具有相同数量的神经元的深度学习模型更复杂的任务。

生物神经元的工作原理对深度学习神经元的启发

 

考虑从一个神经元接收输入的神经元。上图表示来自输入神经元的三个示例性尖峰序列(尖峰被描绘为垂直线)。在像深度学习这样的基于速率的编码模型下,接收神经元的输出在每个例子中都是相同的(因为输入在每种情况下都是相同的:3个尖峰/时间单位)。在时间编码的情况下,对于每个示例,输出可以是不同的,从而适应更具表现力的AI模型。

除了表现力之外,尖峰时间的差异可以允许模型通过模拟生物学的那些来学习 - 例如,突触的尖峰定时依赖性可塑性(STDP)。与深度学习中使用的梯度下降(反向传播)方法相比,这种学习可以在本地和有效地实现。

抑制神经元

基于我们对生物学和深度学习神经元的简单描述,兴奋性和抑制性神经元之间的区别可以通过深度学习神经元来模仿。即,可以简单地通过确保其深度学习等效物对其轴突与其投射的神经元的树突之间的所有突触权重具有负值来模仿生物抑制神经元。相反,当模仿生物兴奋性神经元时,这种突触应始终具有正重量。然而,如果只需要所有突触都是正值(可能通过在每次训练迭代后对权重应用ReLU函数),训练和实现将更容易,并使用激活函数产生抑制的负(正)值(兴奋性)神经元。

技术旁白:在任何一种情况下,由于权重的零值梯度等于零,可能存在额外的训练挑战。与激活函数中的ReLU非线性不同,我们不能依赖随机梯度下降(随机选择的样本批次)来将权重值推离零。

为什么人们想要抑制性神经元呢?为什么不像在当前的深度学习模型中那样在突触水平而不是神经元水平上实施抑制?

这是不确定的,但一种可能性是使用显性抑制神经元有助于约束整体参数空间,同时允许促进快速学习的子网络结构的演变或发展。

在生物系统中,大脑不用学习任何输入 - 输出关系,或执行任何可能的尖峰序列。我们生活在一个具有固定物理定律的世界中,其物种的个体成员具有许多共同的物种内行为特征,无需明确学习。

所以,限制网络的可能电路连接和动态活动等同于限制训练方法必须搜索的解决方案空间。鉴于此,推进AI的一种方法是使用和搜索兴奋性和抑制性神经元的规范子网络结构的方法,其可以在更传统的模型训练期间模块化地组装成更大的网络(例如,通过梯度下降的监督学习)。

抑制性神经元的另一个潜在好处,与刚刚提到的结构化规范电路的使用相关,是抑制性神经元可以有效地"关闭"大量神经元,这些神经元对于处理给定样本或任务是不必要的,从而节省能量需求(假设硬件设计利用这种情况)。此外,如果网络结构合理,这可以促进这种网络中的 - 从概念上携带来自神经元的,该其提取到用该信息执行特定子任务的神经元。例如,将低级可视信息(像素,线或弧)路由到提取对象标识的区域,确定相对对象位置的区域,或两者。

基于低能量尖峰的硬件

更大的生物现实主义可以使人工智能受益的另一种方式不是通过扩展的基本能力本身,而是通过提高能源效率。人脑仅消耗约 - 相当于现代紧凑型荧光灯泡 - 同时提供,比甚至耗能型深度学习模型更多的认知能力。

即使除了这些节能之外没有对深度学习神经元做出任何其他根本性改变,利用约1000 亿个神经元和具有如此低能量要求的100-1000 万亿个突触(粗略估计)的能力可能是显着的提升AI功能。或者,当前模型可以以能源成本的一小部分运行,从而可以在边缘轻松实施,因为处理可以在本地完成,而不是无线传输原始数据到云进行处理(无线传输是一个值得注意的能量消耗)。

相对于传统计算硬件,生物神经元的能量效率很大程度上归因于这些神经元的两个特征。

  • 首先,生物神经元仅传输短脉冲的模拟能量(尖峰)而不是维持许多表示单个浮点或整数的位。在传统硬件中,除非使用更慢类型的存储器(非RAM),否则这些位需要持续的能量流来维持0或1状态。
  • 其次,记忆与生物神经元中的处理位于同一位置。也就是说,突触强度是网络的长期记忆(循环连接可以保持短期记忆),它们参与处理(尖峰加权和传输),并且非常接近处理的其他方面(细胞体内的能量积累)。相比之下,传统硬件定期将位从RAM传输到处理器 - 相当长的距离和相当大的能量消耗。

许多研究实验室和私营公司正致力于开发能够提供这些优势的新型硬件。展望各不相同,但我们可能会在十年内看到可行的,商业化的现成。值得注意的是,迄今为止基于深度学习神经元略微不足。然而,一旦相关硬件的可用性变得明显,利用更多神经元的能力以及将进入基于尖峰的算法的研究量的增加可能会扭转这种状况。

结论

在我们看来,深度学习模型和生物大脑之间的相似性近年来被许多媒体文章夸大了。尽管如此,神经科学家和许多人工智能研究人员都清楚地意识到这些差异,并且正在努力为AI模型带来更大的神经现实性,希望超越我们可能正在向前迈进的

我们忽略了生物学和深度学习神经元之间的许多其他差异,这些差异可能解释了哺乳动物智力与当前AI之间的巨大差异。

  • 3
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
神经网络和深度学习是人工智能领域中的重要概念,它们的发展源于对人类神经系统的模拟和对大规模数据处理的需求。以下是神经网络和深度学习的背景信息: 1. 神经网络的背景:神经网络最早的概念可以追溯到20世纪40年代和50年代,在当时被称为"感知器"。神经网络受到生物学中神经元相互连接和信息传递方式的启发,试图模拟人脑的工作原理。然而,在当时,由于计算能力的限制和缺乏大规模数据,神经网络的研究发展并不显著。 2. 深度学习的背景:深度学习是在神经网络的基础上发展起来的。在20世纪80年代和90年代,研究人员提出了多层神经网络(即深度神经网络)以解决传统浅层神经网络在复杂问题上的限制。然而,由于计算资源和训练算法的限制,深度学习在那个时期仍然面临困难。 3. 驱动深度学习发展的因素:深度学习在近年来得到了迅速发展的原因主要有两个方面。首先,计算能力的提高使得大规模神经网络的训练和推断成为可能。例如,图形处理器(GPU)的广泛应用为深度学习提供了强大的并行计算能力。其次,互联网时代的到来带来了大量的数据,尤其是标注数据,为深度学习的训练提供了丰富的资源。 4. 深度学习的突破:深度学习在2010年左右取得了显著突破,主要表现在计算机视觉和自然语言处理领域。其中,卷积神经网络(CNN)在图像分类和目标检测任务上取得了重大进展,循环神经网络(RNN)在语言建模和机器翻译等自然语言处理任务上取得了突破。 总之,神经网络和深度学习的发展是多个因素共同推动的结果,包括对神经系统的模拟、计算能力的提升以及数据的丰富性。这些进展为人工智能的发展开辟了新的方向,并在多个领域取得了重大突破。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值