CNN卷积神经网络

卷积神经网络(CNN)是一种专门设计用于处理网格状数据(如图像和视频)的深度学习模型。以下是CNN的基本原理、数学公式和一个简单的Python代码示例。

视频推荐:图解,卷积神经网络(CNN可视化)
【卷积神经网络】8分钟搞懂CNN,动画讲解喜闻乐见

可以体验一下Image Kernels

CNN基本原理:

  1. 卷积层(Convolutional Layer):

    • 通过滤波器(卷积核)在输入数据上进行卷积操作,提取特征。
    • 滤波器在输入数据上滑动,每次计算一个局部区域的加权和。
  2. 激活函数:

    • 通常在卷积层后添加非线性激活函数,如ReLU(Rectified Linear Unit),用于引入非线性特性。
  3. 池化层(Pooling Layer):

    • 减小特征图的维度,减少计算量。
    • 常用的池化操作是最大池化(MaxPooling),取局部区域中的最大值。
  4. 全连接层(Fully Connected Layer):

    • 将卷积层和池化层的输出展平,连接到神经网络的全连接层,进行分类或回归。

数学公式:

  1. 卷积操作:

    • 输入: I I I (输入图像), K K K (卷积核)
    • 输出: S S S (特征图)
    • 数学公式: S ( i , j ) = ( I ∗ K ) ( i , j ) = ∑ m ∑ n I ( m , n ) K ( i − m , j − n ) S(i, j) = (I * K)(i, j) = \sum_{m}\sum_{n} I(m, n)K(i-m, j-n) S(i,j)=(IK)(i,j)=mnI(m,n)K(im,jn)
  2. ReLU激活函数:

    • 输入: x x x
    • 输出: f ( x ) = max ⁡ ( 0 , x ) f(x) = \max(0, x) f(x)=max(0,x)
  3. 池化操作(最大池化):

    • 输入: X X X (输入特征图)
    • 输出: Y Y Y (池化后的特征图)
    • 数学公式: Y ( i , j ) = max ⁡ ( X ( 2 i , 2 j ) , X ( 2 i , 2 j + 1 ) , X ( 2 i + 1 , 2 j ) , X ( 2 i + 1 , 2 j + 1 ) ) Y(i, j) = \max(X(2i, 2j), X(2i, 2j+1), X(2i+1, 2j), X(2i+1, 2j+1)) Y(i,j)=max(X(2i,2j),X(2i,2j+1),X(2i+1,2j),X(2i+1,2j+1))

PyTorch代码示例:

下面是一个简单的CNN模型示例,使用PyTorch实现,使用MNIST数据集进行训练。

import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms
from torch.utils.data import DataLoader
import torch.nn.functional as F
import matplotlib
matplotlib.use('TkAgg')
import matplotlib.pyplot as plt

# 检查GPU是否可用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"Using device: {device}")

# 定义卷积神经网络模型
class SimpleCNN(nn.Module):
    def __init__(self):
        super(SimpleCNN, self).__init__()
        self.conv1 = nn.Conv2d(1, 32, kernel_size=3, padding=1)
        self.relu = nn.ReLU()
        self.maxpool = nn.MaxPool2d(kernel_size=2, stride=2)
        self.conv2 = nn.Conv2d(32, 64, kernel_size=3, padding=1)
        self.flatten = nn.Flatten()
        self.fc1 = nn.Linear(64 * 7 * 7, 128)
        self.fc2 = nn.Linear(128, 10)

    def forward(self, x):
        x = self.conv1(x)
        x = self.relu(x)
        x = self.maxpool(x)
        x = self.conv2(x)
        x = self.relu(x)
        x = self.maxpool(x)
        x = self.flatten(x)
        x = self.fc1(x)
        x = self.relu(x)
        x = self.fc2(x)
        return x

# 加载MNIST训练集和测试集
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])

train_dataset = torchvision.datasets.MNIST(root='./data', train=True, download=True, transform=transform)
train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)

test_dataset = torchvision.datasets.MNIST(root='./data', train=False, download=True, transform=transform)
test_loader = DataLoader(test_dataset, batch_size=1, shuffle=True)

# 初始化模型、损失函数和优化器,并将模型移动到GPU上
model = SimpleCNN().to(device)
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 训练模型
num_epochs = 5
for epoch in range(num_epochs):
    for images, labels in train_loader:
        images, labels = images.to(device), labels.to(device)
        optimizer.zero_grad()
        outputs = model(images)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

    print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

# 保存模型
torch.save(model.state_dict(), 'simple_cnn_model.pth')

# 使用训练好的模型进行预测
model.eval()

# 获取一个测试样本
image, label = next(iter(test_loader))
image, label = image.to(device), label.to(device)

# 进行模型预测
with torch.no_grad():
    output = model(image)

# 获取预测结果
predicted_label = torch.argmax(F.softmax(output, dim=1)).item()

# 可视化结果
image = image.squeeze().cpu().numpy()
plt.imshow(image, cmap='gray')
plt.title(f"True Label: {label.item()}\nPredicted Label: {predicted_label}")
plt.show()

这个示例中,我们定义了一个包含两个卷积层、ReLU激活函数、最大池化层以及两个全连接层的简单CNN。通过对MNIST数据集进行训练,模型能够识别手写数字。

  • 28
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值