深度学习-自编码 (Autoencoder)转换MNIST图像数据集

本文介绍了如何使用自编码器(Autoencoder)在PyTorch中处理MNIST图像数据集。通过压缩和解压缩图像,自编码器能帮助神经网络简化学习过程,提高学习效率。实验结果显示了压缩后的图像解压效果。
摘要由CSDN通过智能技术生成

关于自编码 (Autoencoder),可见但理解为,当输入信息的信息量比较大时,神经网络直接从大量信息中学习是很复杂一件事,但是如果将信息进行压缩,保留关键部分,神经网络学习起来就比较轻松了,等到学习完,可以将信息解压,对比正确率,然后不断地反向传播进行修改权重。

下面的例子是将MNIST图片进行压缩后解压:

import torch
import torch.nn as nn
import torch.utils.data as Data
import torchvision
import matplotlib.pyplot as plt
import numpy as np

"""超参数"""
EPOCH = 10  # 一共运行10次
BATCH_SIZE = 64  # 每批运行64个数据
LR = 0.005  # 学习率
DOWNLOAD_MNIST = False  # 是否下载图片数据集,第一次运行为True,以后运行为False
N_TEST_IMG = 10  # 显示数据的列数

"""下载图片数据集"""
train_data = torchvision.datasets.MNIST(
    root='./mnist/',  # 下载存储位置
    train=True,  # 是否为训练集
    transform=torchvision.transforms.ToTensor(),  # 转换为tensor形式&#
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值