详解深度学习Deep Learning

目录

前言

1、历史

2、思想

3、原理

 一、感知机

总结 

优点:

缺点:


博主介绍:✌专注于前后端、机器学习、人工智能应用领域开发的优质创作者、秉着互联网精神开源贡献精神,答疑解惑、坚持优质作品共享。本人是掘金/腾讯云/阿里云等平台优质作者、擅长前后端项目开发和毕业项目实战,深受全网粉丝喜爱与支持✌有需要可以联系作者我哦!

🍅文末三连哦🍅

👇🏻 精彩专栏推荐订阅👇🏻 不然下次找不到哟

前言

1、历史

深度学习算法的历史可以追溯到上世纪40年代,当时Warren McCulloch和Walter Pitts提出了第一个人工神经元模型,奠定了神经网络研究的基础。随后,Rosenblatt于1958年提出了感知机模型,引领了神经网络研究的新浪潮。然而,传统神经网络的局限性使其无法解决复杂的、非线性的问题,导致研究进展受限。

为了克服这些限制,上世纪80年代,多层感知机(MLP)被提出。MLP引入了隐藏层,并使用反向传播算法进行参数更新,使得神经网络能够解决非线性问题。然而,MLP的训练过程复杂且容易过拟合,这限制了其在实际应用中的效果。

随着研究的深入,深度学习领域涌现出了许多具有代表性的算法,如卷积神经网络(CNN)、递归神经网络(RNN)、长短期记忆网络(LSTM)、生成对抗网络(GAN)等。这些算法在图像识别、语音识别、自然语言处理等领域取得了显著的成果。

2、思想

深度学习的核心思想是通过模拟人脑的神经网络结构和功能,从大量的数据中学习和抽取特征,并进行高层次的抽象。深度学习模型通常具有较深的层次结构,可以自动提取和转换数据中的复杂特征,从而实现更高效和准确的学习。

与传统机器学习方法相比,深度学习具有以下优势:

  1. 自动特征提取:深度学习可以自动从原始数据中提取和转换特征,无需手动设计特征工程。
  2. 强大的表示能力:通过深层次的神经网络结构,深度学习可以学习到数据的复杂表示,从而更好地捕捉数据的内在规律和模式。
  3. 泛化能力强:深度学习模型通常具有强大的泛化能力,可以在未见过的数据上进行有效的预测和分类。

3、原理

深度学习的原理主要基于神经网络的构建和训练过程。神经网络由多个神经元组成,每个神经元都与上一层的所有神经元相连,并且每个连接都有一个权重。神经网络的训练过程主要包括前向传播和反向传播两个阶段。

在前向传播阶段,输入数据经过输入层传递给第一个隐藏层,然后逐层传递,直到最后一个隐藏层的输出传递到输出层,进行最终的输出计算。这个过程中,每一层的输出都是下一层的输入,并且每一层的输出都经过了激活函数的处理,从而引入了非线性。

在反向传播阶段,首先计算模型输出与实际标签之间的误差,然后将误差通过网络反向传播,根据链式法则计算每一层的梯度。最后,利用梯度下降的思想,更新每一层神经元的权重,以减小误差。通过多次迭代训练,神经网络可以逐渐学习到数据的内在规律和模式,并在未见过的数据上进行有效的预测和分类。

总结来说,深度学习算法的历史、思想和原理是一个不断发展和完善的过程。随着研究的深入和应用场景的不断扩展,深度学习将在未来发挥更大的作用,为人工智能领域的发展做出更大的贡献。

 一、感知机

感知机(Perceptron)是由美国学者Frank Rosenblatt在1957年提出的一种算法,它不仅是神经网络(深度学习)的起源算法,而且也是作为面向中国手语识别与合成的多功能感知机的初期阶段目标。这种计算机智能接口系统是集语音、文字、手语、人脸、表情、唇读、头势、体势等多通道为一体的,并对这些通道的信息进行编码、压缩、集成、融合。

感知机算法本质上是一种简单的线性判别算法,它接收多个输入信号,并根据每个输入信号的权重进行计算。权重越大,对应的输入信号就越重要。然后,将这些加权后的信号求和,如果总和超过某个阈值(也称为界限值或激活函数),则输出信号为1,表示“神经元被激活”或“传递信号”;否则,输出信号为0,表示“不传递信号”。这种二分类模型使得感知机可以对输入数据进行分类任务。

感知机的结构简单,易于实现和训练,是神经网络的基础。然而,它也有一些局限性,例如不能处理线性不可分的问题。为了克服这些限制,后续的研究者提出了许多改进算法,如多层感知机(MLP)、卷积神经网络(CNN)等,这些算法在图像识别、语音识别、自然语言处理等领域取得了显著的成果。

感知机算法与其他许多算法有着密切的关系,例如逻辑回归模型、支持向量机、线性判别分析等。尽管感知机算法很少单独使用,但它对于理解其他模型和算法非常有用,是建立知识体系的一个枢纽,同时也是开始机器学习的一个很好的切入点。以下是感知机网络的详细介绍以及其原理公式:

结构:

感知机网络由一个输入层和一个输出层组成。

1. 输入层:接收来自数据源的输入特征,每个输入特征对应一个输入神经元。

2. 输出层:生成网络的输出,通常只包含一个神经元,用于进行二分类。

工作原理:

1. 输入权值加权求和:对于给定的输入样本 $\mathbf{x}$和权值向量 $\mathbf{w}$,感知机将输入样本的特征与对应的权值相乘并求和,得到加权和:

  z = \sum_{i=1}^{n} w_i x_i + b

   其中,$x_i$是输入样本的第$i$个特征,$w_i$ 是对应的权值,$b$是偏置。

2. 激活函数:感知机使用阶跃函数(Step Function)作为激活函数,将加权和$z$作为输入,输出二分类的结果:

\text{output} = \begin{cases} 1 & \text{if } z \geq 0 \\ 0 & \text{if } z < 0 \end{cases}

   这意味着,如果加权和大于等于0,则输出为1(属于正类),否则输出为0(属于负类)。

3. 训练过程:感知机的训练过程采用简单的更新权值的方法,称为感知机学习规则。如果样本被错误分类,就更新权值和偏置,直到所有样本都被正确分类或达到预定的迭代次数。

w_i \leftarrow w_i + \alpha \cdot (y - \text{output}) \cdot x_i

b \leftarrow b + \alpha \cdot (y - \text{output})

   其中,$\alpha$是学习率,$y$是样本的真实类别标签。

应用:

感知机网络可以应用于简单的二分类问题,如逻辑门电路(与门、或门、非门等)的实现、简单的模式分类等。

MLP多层感知机实现:

class MultiLayerPerceptron:
    def __init__(self, input_size, hidden_sizes, output_size):
        self.input_size = input_size
        self.hidden_sizes = hidden_sizes
        self.output_size = output_size
        
        # 初始化权值和偏置
        self.weights = [np.random.randn(input_size, hidden_sizes[0])]
        self.biases = [np.zeros(hidden_sizes[0])]
        for i in range(len(hidden_sizes)-1):
            self.weights.append(np.random.randn(hidden_sizes[i], hidden_sizes[i+1]))
            self.biases.append(np.zeros(hidden_sizes[i+1]))
        self.weights.append(np.random.randn(hidden_sizes[-1], output_size))
        self.biases.append(np.zeros(output_size))

 前向传播:

 def forward(self, x):
        # 前向传播
        activations = [x]
        for i in range(len(self.weights)):
            z = np.dot(activations[-1], self.weights[i]) + self.biases[i]
            a = self.sigmoid(z)  # 使用 sigmoid 激活函数
            activations.append(a)
        return activations[-1]

方向传播:

 def backward(self, x, y, learning_rate):
        # 反向传播
        activations = [x]
        zs = []
        for i in range(len(self.weights)):
            z = np.dot(activations[-1], self.weights[i]) + self.biases[i]
            zs.append(z)
            a = self.sigmoid(z)
            activations.append(a)

计算误差并方向传播误差更新权值和偏置:

  # 计算输出层的误差
        delta = activations[-1] - y
        
        # 反向传播误差更新权值和偏置
        for i in range(len(self.weights)-1, -1, -1):
            activation = activations[i]
            if i == len(self.weights)-1:
                # 输出层
                delta_w = np.dot(activation.T, delta)
            else:
                # 隐藏层
                delta_w = np.dot(activation.T, delta * self.sigmoid_prime(zs[i]))
            delta_b = np.sum(delta * self.sigmoid_prime(zs[i]), axis=0)
            self.weights[i] -= learning_rate * delta_w
            self.biases[i] -= learning_rate * delta_b
            delta = np.dot(delta, self.weights[i].T) * self.sigmoid_prime(zs[i-1])
        

总结 

感知机的优缺点总结:

优点:

  1. 简单易懂:感知机模型结构简单,易于理解和实现,适用于初学者学习神经网络的基本概念和工作原理。

  2. 计算效率高:由于其简单的结构,感知机的计算效率很高,适用于处理大量数据的场景。

  3. 在线学习:感知机的学习规则是一种在线学习算法,即每次更新权值只需考虑一个样本,因此可以实时地适应新的数据。

缺点:

  1. 局限性:感知机只能解决线性可分问题,即无法处理非线性可分的数据集,这限制了其在实际应用中的适用范围。

  2. 不稳定性:当训练数据集中存在噪声或者样本分布不均匀时,感知机容易陷入局部最优解,导致性能不稳定。

  3. 无法处理复杂任务:感知机只能构建单层网络,无法处理复杂的模式识别任务,如图像识别、语音识别等,因为这些任务需要多层次的特征抽取和表示。

  4. 不适用于回归问题:感知机主要用于分类问题,无法直接应用于回归问题,因为它的输出是一个二进制分类结果。

感知机是神经网络的一种基础模型,具有简单、高效的特点,但也存在着一些局限性,限制了其在复杂任务中的应用。随着神经网络的发展,后续出现的多层感知机等更复杂的模型弥补了感知机的一些缺陷,并在实际应用中取得了更好的性能。

 

 最后,创作不易!非常感谢大家的关注、点赞、收藏、评论啦!谢谢四连哦!好人好运连连,学习进步!工作顺利哦! 

 

  • 21
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序小勇

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值