介绍
本文将讨论有关图像分类的所有内容。
在过去的几年里,深度学习已经被证明是一个非常强大的工具,因为它能够处理大量的数据。隐藏层的使用超越了传统技术,尤其是在模式识别方面。最受欢迎的深度神经网络之一是卷积神经网络 (CNN)。
卷积神经网络(CNN)是一种用于图像识别和处理的人工神经网络(ANN),专门用于处理数据(像素)。
在进一步研究之前,我们需要了解什么是神经网络.
神经网络
一个神经网络由几个相互连接的节点构成,称为**“神经元”。神经元分为输入层、隐藏层和输出层。**输入层对应于我们的预测器/特征,输出层对应于我们的响应变量。
多层感知器(MLP)
具有输入层、一个或多个隐藏层和一个输出层的神经网络称为多层感知器 (MLP)。 MLP 是Frank Rosenblatt在 1957 年发明的。下面给出的 MLP 有 5 个输入节点、5 个带有两个隐藏层的隐藏节点和一个输出节点
这个神经网络是如何工作的?
– 输入层神经元接收来自数据的传入信息,它们处理并分配给隐藏层。
– 该信息依次经过隐藏层处理,并传递给输出神经元。
– 该人工神经网络 (ANN) 中的信息根据一个激活函数进行处理。这个函数实际上模仿了大脑神经元。
– 每个神经元包含一个激活函数值和一个阈值。
–阈值是输入必须具有的最小值才能被激活。
– 神经元的任务是对所有输入信号进行加权求和,并对总和应用激活函数,然后再将其传递到下一个(隐藏或输出)层。
让我们了解什么是权重和?
假设我们有值????1、????2、????3、????4作为输入,权重为????1、????2、????3、????4作为隐藏层神经元????????之一的输入,那么加权和表示为
???????? = σ ????=1to4 ????????*???????? + ????????
其中 ???????? :由节点引起的偏差
什么是激活函数?
需要这些函数来将非线性引入网络。应用激活函数并将该输出传递到下一层。
可能的函数
• Sigmoid:Sigmoid 函数是可微的。它产生 0 到 1 之间的输出。
• 双曲正切:双曲正切也是可微的。它会产生 -1 和 1 之间的输出。
• ReLU:ReLU 是最受欢迎的函数。ReLU 在深度学习中被广泛使用。
• Softmax:softmax 函数用于多类分类问题。它是 sigmoid 函数的推广。它还产生 0 到 1 之间的输出
现在,让我们继续我们的话题 CNN……
CNN
现在假设有一张鸟的图像,你想确定它是真的鸟还是其他什么东西。你应该做的第一件事是以数组的形式将图像的像素馈送到神经网络(用于对此类事物进行分类的 MLP 网络)的输入层。
隐藏层通过执行各种计算和操作来进行特征提取。有多个隐藏层,如卷积、ReLU 和从图像中执行特征提取的池化层。
最后,你可以看到一个全连接层,它可以识别图像中的确切对象。
你可以很容易的从下图理解:
卷积
卷积运算涉及矩阵算术运算,每个图像都以值(像素)数组的形式表示。
让我们理解示例:
a = [2,5,8,4,7,9]
b = [1,2,3]
在卷积运算中,数组逐个元素地相乘,乘积被分组或求和以创建一个表