代码实现了一个自编码器模型对MNIST手写数字数据集进行降维和重构,同时进行了可视化展示。
思路如下:
1.加载MNIST数据集,并将其转换为PyTorch的数据格式;
2.定义一个自编码器模型,包括一个编码器和一个解码器,使用Tanh和Sigmoid函数作为激活函数,将输入图像压缩为3维的特征向量,再重构为原始图像;
3.使用MSE损失函数和Adam优化器训练自编码器模型;
4.在训练过程中,每训练100个批次就将一部分测试数据集的图像作为例子,使用自编码器模型进行重构,并将重构后的图像进行可视化展示;
5.训练完成后,使用自编码器模型对数据集进行特征提取,并通过三维图像展示压缩后的特征向量。
import torch
import torch.nn as nn
import torch.utils.data as Data
import torchvision
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
from matplotlib import cm
import numpy as np
import os
os.environ['KMP_DUPLICATE_LIB_OK']='TRUE'
# torch.manual_seed(1) # reproducible
# 定义超参数
EPOCH = 10
BATCH_SIZE = 64
LR = 0.005 # 学习率
DOWNLOAD_MNIST = False # 下过数据的话, 如果已经下载,将其设置成 False即可
N_TEST_IMG = 5 # 可视化重构图像时使用的图片数量
# 读取MNIST数据集
train_data = torchvision.datasets.MNIST(
root='./mnist/', # MNIST数据集下载后的保存路径
train=True, # True表示读取训练集,False表示读取测试集
transform=torchvision.transforms.ToTensor(), # 将数据集中的图像转换为张量,并将其值缩放到[0,1]的范围内
download=True, # 是否下载数据集
)
# 可视化一张图片
print(train_data.train_data.size()) # 输出数据集中的图片尺寸(60000, 28, 28)
print(train_data.train_labels.size()) # 输出数据集中的标签尺寸(60000)
plt.imshow(train_data.train_data[2].numpy(), cmap='gray')
plt.title('%i' % train_data.train_labels[2])
plt.show()
# 使用DataLoader将数据集转换为可迭代的数据加载器
train_loader = Data.DataLoader(dataset=train_data, batch_size=BATCH_SIZE, shuffle=True)
# 定义自编码器模型
class AutoEncoder(nn.Module