今天,开源机器学习软件库,如TensorFlow , Keras或PyTorch我们可以创建神经网络,即使在高结构的复杂性,因为代码只需几行。 话虽如此,神经网络背后的数学仍然是我们中某些人的一个谜,拥有神经网络和深度学习背后的数学知识可以帮助我们了解神经网络内部正在发生的事情。 它还在架构选择,深度学习模型的微调,超参数优化和优化方面有帮助。
介绍
由于我对代数或微积分的了解不多,因此很长一段时间以来,我都忽略了对神经网络和深度学习背后的数学的理解。 几天前,我决定从头开始,推导神经网络和深度学习背后的方法论和数学,以了解它们如何工作以及为什么起作用。 我还决定写这篇文章,这对像我这样的人很有用,他们发现很难理解这些概念。
感知器
感知器—由弗兰克·罗森布拉特(Frank Rosenblatt)发明 在1957年,是最简单的神经网络,它由n个输入,一个神经元和一个输出组成,其中n是数据集的特征数量。 通过神经网络传递数据的过程称为前向传播,并在以下三个步骤中说明了在感知器中执行的前向传播。
步骤1 :对于每个输入,将输入值xᵢ乘以权重wᵢ 并将所有相乘的值相加。 权重-表示神经元之间连接的强度,并决定给定输入将对神经元输出产生多大影响。 如果权重w 1的值大于权重w 2,则输入x 1对输出的影响将大于w 2。
![](https://i-blog.csdnimg.cn/blog_migrate/f3a1455cf3612a14a9d71dcb2f3f704b.png)