神经网络 AI torch 构造自己的数据集(包含标签或者不包含标签)

AI learning 用于学习train,验证val的图片目录结构形式如下:(一般为自己构造的图像数据的目录)

这是一个简单的图像二分类问题,两个类别为正常(normal)或者异常(abnormal)。

数据集分为:train 训练集,val 验证集,test 测试集。

data---

        ---train               

                -----abnormal

                        ----001.jpg

                        ----002.jpg

                        ----....

                -----normal            

                        ----001.jpg

                        ----002.jpg

                        ----....

        ---val            

                -----abnormal

                        ----001.jpg

                        ----002.jpg

                        ----....

                -----normal

                        ----001.jpg

                        ----002.jpg

                        ----....

        ---test

                ----001.jpg

                ----002.jpg

                ----....

使用Dataset 继承,需要重新写自己的dataset函数,包含标签(abnormal 为标签1, normal 为标签0),有标签的情况主要是用于学习和验证使用。

from torch.utils.data import Dataset
from torchvision import transforms

def get_label(root, phase):
    label_list =[]
    img_list1 = []
    img_root = os.path.join(root,phase)
    imgs = os.listdir(img_root)
    for im in imgs:
        image_list = os.listdir(os.path.join(img_root,im))
        for img_path in image_list:
            img_list = os.path.join(os.path.join(img_root, im),img_path)
            label = 1 if img_list.split('\\')[-2] == 'abnormal' else 0
            label_list.append(label)
            img_list1.append(img_list)
    return img_list1, label_list

class MyData(Dataset):
    def __init__(self, root_dir, phase, transform=None):
        self.root_dir = root_dir
        self.transform = transform
        self.phase = phase
        self.data = self.load_img(self)
    def load_img(self):
        image_list, label_list=get_label(self.root_dir,self.phase)
        data =[]
        for im in range(len(image_list)):
            img = Image.open(image_list[im]).convert('RGB')
            sample =(img,label_list[im])
            data.append(sample)
        return data
    def __len__(self):
        return len(self.data)
    def __getitem__(self,index):
        image_info,img_label = self.data[index]
        if self.transform:
            sample = self.transform(image_info)
        else:
            sample = image_info
        return sample,img_label

无标签的情况,主要是来进行测试用。

def get_images(root):
    img_list1 = []
    img_root = os.path.join(root)
    imgs = os.listdir(img_root)
    for im in imgs:
        image_list = os.path.join(img_root,im)
        img_list1.append(image_list)
    return img_list1

class MyDataset(Dataset):
    def __init__(self, root_dir, transform=None):
        self.root_dir = root_dir
        self.transform = transform
        self.data = self.load_img()
    def load_img(self):
        image_list =get_images(self.root_dir)
        data =[]
        for im in image_list:
            img = Image.open(im).convert('RGB')
            data.append(img)
        return data
    def __len__(self):
        return len(self.data)
    def __getitem__(self,index):
        image_info = self.data[index]
        if self.transform:
            sample = self.transform(image_info)
            return sample
        else:
            return image_info

调用

from torch.utils.data import DataLoader,Dataset

data_transform = transforms.Compose([transforms.Resize((224, 224)),transforms.ToTensor()])
train_dataset = MyData('data','train', transform = data_transform)
val_dataset = MyData('data','val', transform = data_transform)
test_dataset = MyDataset('data\\test', transform = data_transform)
test_loader = Dataloader(test_dataset, batch_size = 32)
for step,data in enumerate(test_loader):
    images = data
  # [预测代码]

好的,我可以为您介绍使用Torch神经网络实现MNIST数据集分类的步骤。 1. 导入必要的库和数据集 首先,我们需要导入必要的库和数据集。在使用Torch实现MNIST分类时,我们通常会使用torchvision库中的MNIST数据集。可以使用以下代码导入库和数据集: ``` require 'torch' require 'nn' require 'optim' require 'image' require 'gnuplot' require 'torchvision' -- 导入MNIST数据集 trainset = torchvision.datasets.MNIST('./data', true, true) testset = torchvision.datasets.MNIST('./data', false, true) ``` 2. 数据预处理 在使用数据集进行训练之前,我们需要对数据进行预处理。这包括将图像转换为张量、将像素值标准化等。以下是一个例子: ``` -- 将训练集和测试集图像转换为张量 trainset.data = trainset.data:float() testset.data = testset.data:float() -- 将训练集和测试集标签转换为张量 trainset.label = trainset.label:float() + 1 testset.label = testset.label:float() + 1 -- 标准化像素值 mean = trainset.data:mean() std = trainset.data:std() trainset.data:add(-mean):div(std) testset.data:add(-mean):div(std) ``` 3. 定义神经网络模型 接下来,我们需要定义一个神经网络模型。在这里,我们可以使用一个简单的卷积神经网络模型,如下所示: ``` -- 定义一个简单的卷积神经网络模型 model = nn.Sequential() model:add(nn.SpatialConvolution(1, 32, 5, 5)) model:add(nn.ReLU()) model:add(nn.SpatialMaxPooling(2, 2, 2, 2)) model:add(nn.SpatialConvolution(32, 64, 5, 5)) model:add(nn.ReLU()) model:add(nn.SpatialMaxPooling(2, 2, 2, 2)) model:add(nn.View(64 * 4 * 4)) model:add(nn.Linear(64 * 4 * 4, 100)) model:add(nn.ReLU()) model:add(nn.Linear(100, 10)) model:add(nn.LogSoftMax()) ``` 4. 定义损失函数和优化器 在训练神经网络时,我们需要定义一个损失函数和一个优化器。在这里,我们可以使用交叉熵损失函数和随机梯度下降优化器,如下所示: ``` -- 定义损失函数和优化器 criterion = nn.CrossEntropyCriterion() optimizer = optim.SGD(parameters, learning_rate) ``` 5. 训练网络模型 现在我们已经准备好了所有必要的元素,可以开始训练神经网络模型了。以下是一个示例训练循环: ``` -- 训练模型 for i = 1, num_epochs do local train_loss = 0 local train_correct = 0 for j = 1, trainset.size do -- 获取样本和标签 local sample = trainset.data[j] local label = trainset.label[j] -- 向前传递 local output = model:forward(sample) -- 计算损失 local loss = criterion:forward(output, label) -- 计算梯度 local gradOutput = criterion:backward(output, label) model:backward(sample, gradOutput) -- 更新参数 optimizer:updateParameters(learning_rate) -- 计算训练损失和准确率 train_loss = train_loss + loss if torch.argmax(output) == label then train_correct = train_correct + 1 end end -- 打印训练损失和准确率 print(string.format("Epoch %d: Train Loss = %f, Train Accuracy = %f", i, train_loss / trainset.size, train_correct / trainset.size)) end ``` 6. 在测试集上验证模型性能 最后,我们需要在测试集上验证训练出的模型的性能。以下是一个示例代码: ``` -- 在测试集上验证模型性能 local test_loss = 0 local test_correct = 0 for i = 1, testset.size do -- 获取样本和标签 local sample = testset.data[i] local label = testset.label[i] -- 向前传递 local output = model:forward(sample) -- 计算损失 local loss = criterion:forward(output, label) -- 计算准确率 test_loss = test_loss + loss if torch.argmax(output) == label then test_correct = test_correct + 1 end end -- 打印测试损失和准确率 print(string.format("Test Loss = %f, Test Accuracy = %f", test_loss / testset.size, test_correct / testset.size)) ``` 这就是使用Torch实现MNIST分类的基本步骤。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值