详解卷积神经网络(Convolutional Neural Networks, CNNs)

全连接神经网络基础

全连接神经网络(Fully Connected Neural Network 或 Multi-Layer Perceptron, MLP)是最简单的深度学习模型之一。一个典型的全连接网络由多个层组成,每一层包含多个神经元或节点。每个神经元与上一层的所有神经元相连,并通过激活函数产生输出。

全连接网络的每一层都执行以下操作:

  1. 接收来自上一层(或输入层)的输入。
  2. 将输入与该层的权重进行矩阵相乘。
  3. 加上一定的偏置项。
  4. 通过激活函数生成激活值。

在传统的全连接网络中,最常见的激活函数是Sigmoid、Tanh、ReLU等。

为什么全连接神经网络是卷积神经网络的基础?

全连接神经网络是理解复杂网络结构的基础。它教会我们如何堆叠层,如何通过反向传播调整权重,以及如何利用激活函数引入非线性。这些基础概念在卷积神经网络中同样适用。

卷积神经网络(Convolutional Neural Networks, CNNs)

卷积神经网络是专门用来处理具有网格结构输入的神经网络,例如图像(2D网格),声音信号(1D网格)等。CNN通过引入卷积层显著减少了模型参数的数量,并能够学习输入数据的局部特征。

卷积层 (Convolutional Layer)

卷积层通过一组可学习的卷积核(也称为过滤器或特征检测器)来提取特征。每个卷积核在输入图像上滑动(或卷积操作),并生成特征图(也称为激活图)。这允许网络专注于图像的局部信息,并且具有平移不变性。

池化层(Pooling Layer)

池化层通常位于连续的卷积层之间,用于降低特征图的空间维度,增强网络对小的变化的不变性,并减少计算量。最常见的池化操作是最大池化,它从覆盖的区域中提取最大值。

全连接层(Fully Connected Layer)

全连接层通常位于CNN的末尾,它们的作用是将前面卷积层和池化层学习到的局部特征组合起来完成特定的任务,比如分类。

激活函数

像全连接网络一样,CNN的卷积层和全连接层之后也会跟有激活函数,ReLU是现代CNNs中最常用的激活函数之一,因为它能够加速训练且防止梯度消失问题。

使用PyTorch搭建卷积神经网络

PyTorch是一个流行的开源机器学习库,尤其在研究领域受到青睐。下面是一个使用PyTorch搭建简单卷积神经网络的示例代码,带有详细的中文注释:

import torch
import torch.nn as nn
import torch.nn.functional as F

# 定义CNN模型的类
class SimpleCNN(nn.Module):
    def __init__(self):
        super(SimpleCNN, self).__init__()
        # 卷积层1,使用了32个3x3的卷积核
        self.conv1 = nn.Conv2d(in_channels=1, out_channels=32, kernel_size=3, padding=1)
        # 卷积层2,使用了64个3x3的卷积核
        self.conv2 = nn.Conv2d(32, 64, 3, padding=1)
        # 最大池化层,使用了2x2的池化窗口
        self.pool = nn.MaxPool2d(kernel_size=2, stride=2)
        # 全连接层1,输入特征数量必须与前一层的输出相匹配
        # 这里的输入特征数量视乎前面层数和池化后的结果而定
        self.fc1 = nn.Linear(64 * 7 * 7, 128)
        # 全连接层2,用作输出层,假设我们要分类10个类别
        self.fc2 = nn.Linear(128, 10)
    
    # 定义前向传播路径
    def forward(self, x):
        # 经过第一个卷积层后使用ReLU激活函数
        x = F.relu(self.conv1(x))
        # 经过最大池化层
        x = self.pool(x)
        # 经过第二个卷积层后使用ReLU激活函数
        x = F.relu(self.conv2(x))
        # 经过最大池化层
        x = self.pool(x)
        # 将多维数据展平为一维,准备输入全连接层
        x = x.view(-1, 64 * 7 * 7)
        # 经过第一个全连接层后使用ReLU激活函数
        x = F.relu(self.fc1(x))
        # 经过输出层,并不使用激活函数,因为这里输出的是分类结果
        x = self.fc2(x)
        return x

# 创建模型实例
model = SimpleCNN()

# 打印模型结构
print(model)

以上代码中,我们构建了一个简单的卷积神经网络,它有2个卷积层,2个池化层以及完全连接的层。在实践中,您可能需要根据输入数据的大小和目标任务调整网络的大小和复杂性。例如,如果您处理的是更高分辨率的图像,您可能需要更多的卷积层或者更大的全连接层。

请注意,在实际应用中搭建CNN时,计算输入特征数量给全连接层是一个重要步骤,需要根据您的输入数据和之前层的设置来手动计算。例如,在上面的代码中,逻辑是假设输入的图像大小是28x28像素,经过两次2x2的池化后,其大小变为7x7像素(原大小除以池化窗口stride的大小的平方),因此在全连接层fc1中的输入特征数量必须设置为64(第二个卷积层的输出通道数)乘以7乘以7(池化后的图像大小)。

如果你想更深入地了解人工智能的其他方面,比如机器学习、深度学习、自然语言处理等等,也可以点击这个链接,我按照如下图所示的学习路线为大家整理了100多G的学习资源,基本涵盖了人工智能学习的所有内容,包括了目前人工智能领域最新顶会论文合集和丰富详细的项目实战资料,可以帮助你入门和进阶。

链接: 人工智能交流群【最新顶会与项目实战】(点击跳转)

在这里插入图片描述

  • 13
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
卷积神经网络Convolutional Neural NetworksCNN)是一种强大的深度学习算法,主要用于图像识别和处理。CNN的结构图主要包括卷积层、激活函数、池化层和全连接层。 卷积层是CNN的核心组成部分,由多个卷积核组成。每个卷积核在图像上进行滑动操作,通过计算卷积操作得到新的特征图。卷积操作可以提取出图像的局部特征,并保留了空间结构信息。 在卷积层之后,激活函数(如ReLU)被应用于特征图中的每个元素,以引入非线性。激活函数可以增加网络的表达能力,并促使网络学习更复杂的特征。 池化层用于减少特征图的维度,它通过将特定区域内的特征值进行聚合,并选择最显著的特征进行保留。常用的池化操作包括最大池化和平均池化。池化层可以减少特征图的大小,从而降低参数数量,减小计算量。 最后,全连接层将池化层输出的特征图转换为向量形式,并连接到输出层。全连接层的作用是对特征进行分类或回归预测。它们通常由全连接神经元组成,每个神经元与上一层的所有神经元相连。 在CNN的结构图中,卷积层和池化层可以多次堆叠,以增加网络的深度。这种多层次的结构可以使网络学习到更高级别的抽象特征。此外,CNN还可以通过添加批量归一化、dropout等技术来提高网络的性能和泛化能力。 总之,CNN的结构图展示了卷积神经网络的层次组织和数据流动方式,有助于理解其工作原理和网络结构的设计。通过逐层堆叠不同的层,CNN可以有效地提取图像中的特征,并在分类、目标检测等任务中取得优秀的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

RRRRRoyal

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值