这个稀疏自编码器就是在编码器的基础上,加上稀疏约束。
所谓稀疏约束就是尽量使隐藏层中激活的神经元是稀少的;
代码里我们算出隐藏层中神经元激活值的平均值q = torch.nn.functional.softmax(encoder_out, dim=1);
p是我们希望的平均激活值,因为是希望神经元稀疏,所以代码里设置了一个比较小的值:0.2;
再算出q与p的分布差,又称为kl散度。 _kl = criterion_(p, q);
给损失函数加上这个kl散度: loss += _beta * _kl,这样的目的是使p尽量接近于q,也就是使隐藏层中神经元激活值的平均值接近于0.2,以此间接达到了使神经元稀疏的作用。
以下给出代码,分为训练部分和探测部分:
1、训练部分
'''
训练系数自动编码器用于高光谱异常探测
'''
import torch
from torch import nn, optim
from torch.autograd import Variable
from torchvision import transforms
from torch.utils.data import DataLoader
from torchvision.utils import save_image
import os
import numpy as np
# 加载数据集
def get_data():
'''
函数作用:读取数据集
return:dataload与img(高光谱图像)
'''
from scipy import io
#读取数据
dataset_name='sandiego_plane.mat'
load=io.loadmat(dataset_name)
img = load['data']
gt = load['map']
height,width,spectrum=img.shape
#这一段是预处理数据
img_data=img.reshape((height*width,spectrum))#改变数据形状,使其适合送入dataset
gt_data=gt.reshape((height*width))
img_data=img_data.astype(np.float32)#数据类型转换
# 将像素点转换到[-1, 1]之间,使得输入变成一个比较对称的分布,训练容易收敛
img_data=(img_data-(0.5*img_data.max()))/ (0.5*img_data.max())
#设置dataset与dataload
from datasets import Dataset #这个datasets是自己写的代码文件,见第三段代码
from torch.utils import data
train_dataset = Dataset(img_data, gt_data,dataset_name=dataset_name)
train_loader = DataLoader(train_dataset, shuffle=True, batch_size=batch_size, drop_last=True)
return train_loader,img
def to_img(x):
x = (x + 1.) * 0.5
x = x.clamp(0, 1)
x = x.view(x.size(0), 1, 28, 28)
return x
class autoencoder(nn.Module):
def __init__(self,in_dim,hidden_size,):
super(autoencoder, self).__init__()
self.encoder = nn.Sequential(nn.Linear(in_dim, 128),
nn.ReLU(True),
nn.Linear(128, 64),
nn.ReLU(True),
nn.Linear(64, hidden_size),
nn.Re