Pytorch学习笔记【14】:自编码(autoencoder)

本文介绍了自编码的概念,作为一种数据压缩技术,它能降低神经网络的训练压力并提升效率。以手写数字数据集为例,详细展示了如何用PyTorch实现简单自编码模型,包括代码实现和运行结果展示。
摘要由CSDN通过智能技术生成

一. 什么是自编码

      自编码是什么呢?就是说假如我们需要训练的数据量非常大,那么 神经网络的压力是很大的,所以我们可以 将其压缩一下,再解压,通过对比解压之后的和原来的 数据,反向传播去训练,训练好之后,我们再需要 用到这批数据,就 只需用压缩之后的数据即可,这样就大大减小了神经网络的训练压力,增加了训练效率。看下图就明白了:

                     

                    

 

二. 简单自编码模型实现(以手写数字数据集为例子)

   1. 代码

import torch
import torch.nn as nn
import torch.utils.data as Data
import torchvision
import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
from matplotlib import cm

# 定义一些参数
EPOCH = 10
BATCH_SIZE = 64
LR = 0.005
DOWNLOAD_
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值