(5-2)交通信号识别:基于人工智能的信号灯识别系统

5.2  基于人工智能的信号灯识别系统

随着人工智能技术的发展,在机器人运动、智能交通系统、自动驾驶车辆、交通监控等应用中,可以使用机器学习技术实现交通信号的识别与决策。其中常用的机器学习算法如下:

实例5-8:基于CNN的交通信号识别系统(codes/5/cnn-traffic-signals-identify.ipynb

5.2.1  项目背景和介绍

交通信号牌识别是计算机视觉领域的一个重要任务,具有广泛的应用前景,例如智能交通系统和自动驾驶技术。本项目致力于构建一个能够识别交通信号牌的深度学习模型,通过对图像进行分类,实现对不同类型交通信号牌的准确识别。本项目的主要功能是实现交通信号牌的识别任务,包括数据集的探索、预处理、模型的构建、训练和评估。整个项目的具体功能如下:

  1. 项目目标:项目的主要目标是构建一个模型,能够对交通信号牌进行识别。这是一个典型的计算机视觉任务,需要利用深度学习技术来学习图像中的特征,并进行分类。
  2. 数据集探索:项目开始时对数据集进行了探索,包括了随机展示训练集中的图片、查看交通信号牌类别以及了解数据集的分布情况。通过可视化,可以更好地理解数据的特点。
  3. 数据预处理:在项目中,进行了数据预处理的步骤,包括加载训练集和测试集的图片,将图片转换为灰度图,调整图片大小,对标签进行编码等。
  4. 模型构建:项目使用了卷积神经网络(CNN)作为模型,具体是一个LeNet5风格的网络。这个网络结构包含卷积层、池化层、全连接层等,适用于图像分类任务。
  5. 数据增强:为了增加模型的鲁棒性,引入了数据增强的方法。项目中使用了仿射变换(affine transformation)对训练集进行增强,包括旋转、缩放、平移等。
  6. 训练和调参:项目进行了模型的训练,并实现了基本的训练循环。使用了交叉熵损失函数进行训练,同时监控了训练和验证集的损失和准确率。为了提高模型性能,还实现了学习率的调整机制,以及在验证集上进行了早期停止。
  7. 结果展示:最后,通过 Matplotlib 绘制了训练过程中损失、准确率以及学习率的曲线图,用于观察模型的训练情况。

总体来说,本项目覆盖了计算机视觉任务的各个方面,从数据处理到模型训练,再到结果展示。这是一个实际的深度学习项目,可以帮助理解图像分类任务的基本流程和技术要点。

5.2.2  具体实现

实例文件cnn-traffic-signals-identify.ipynb具体实现流程如下所示。

1. 准备数据

(1)定义展示交通信号牌的函数show_sign(),该函数接受一组图像(imgs)和相应的标签(tags),并在一个图形界面中以每行显示一定数量的列的形式展示这些图像。

# 展示交通信号牌
def show_sign(imgs, tags, per_row=2):
    n    = len(imgs)
    rows = (n + per_row - 1)//per_row
    cols = min(per_row, n)
    fig, axes = plt.subplots(rows,cols, figsize=(24//per_row*cols,24//per_row*rows))
    for ax in axes.flatten(): ax.axis('off')
    for i,(img,ax) in enumerate(zip(imgs, axes.flatten())): 
        ax.imshow(img.convert('RGB'))
        ax.set_title(tags[i])

函数show_sign()的目的是使用户能够方便地查看一组交通信号牌图像,并对它们进行标记。各个参数的具体说明如下:

  1. 参数per_row:表示每一行要显示的列数,默认为2。
  2. 参数n:表示图像的总数量。
  3. 参数rows:表示计算得到的行数,通过除法和向上取整来确定。
  4. 参数cols:表示每一行实际上要显示的列数,取 per_row 和总图像数量的较小值。

(2)从训练集中随机选择100张图片,然后使用之前定义的函数show_sign()展示这些图片,并附带它们的标签。

trainlist = glob('../input/traffic-lights-identify/data/train/*/*')

### 随机展示100张训练集图片
example = [rd.randint(0, len(trainlist)-1) for _ in range(100)]
imgs = [pil_image.open(trainlist[i]) for i in example]

def tag(i):
    m = trainlist[i].split('/')[-2]
    return str(int(m))
tags = [tag(i) for i in example]

show_sign(imgs, tags, per_row=10)

执行后调用函数show_sign(),将100张图片以每行10列的形式展示出来,并显示相应的标签。其中部分截图如图2-8所示。

图2-8  展示的部分图片

(3)使用库PrettyTable 创建了一个漂亮的表格,用于展示交通信号牌类别的名称和对应的索引值,这样的表格对于理解数据集中不同类别的交通信号牌以及它们的索引是非常有帮助的。

from prettytable import PrettyTable

#将signName和索引打成一个字典
sign_names = dict([(p,w) for _,p,w in read_csv('../input/traffic-lights-identify/data/signnames.csv').to_records()])
#创建一个PrettyTable对象
sign_name_table = PrettyTable()
#添加PrettyTable字段名称
sign_name_table.field_names = ['class value', 'Name of Traffic sign']
#添加字典进入PrettyTable中
for index,sign in sign_names.items():
    sign_name_table.add_row([index,sign])
sign_name_table

2. 导入数据集

加载训练集和测试集,并进行必要的预处理,以便将数据导入神经网络进行训练和测试。

SIZE = (32,32)
n_class = len(sign_names)

### 导入训练集
train = {}
train['features'] = []
train['label'] = []

print('Loading the training set:')
for sign in tqdm(range(n_class)):
    path = '../input/traffic-lights-identify//data/train/' + str(sign).zfill(5) + '/*'
    for i in glob(path):
        img = pil_image.open(i)
        img = img.convert('L')  # 将图像转变为灰度图
        train['features'].append(np.array(img.resize(SIZE)))
        train['label'].append(sign)
train['label'] = np.array(train['label'])

### 导入测试集
test = {}
test['features'] = []
test['label'] = []

print('Loading the testing set:')
path = '../input/traffic-lights-identify/data/test/*'
for i in tqdm(glob(path)):
    img = pil_image.open(i)
    img = img.convert('L')
    test['features'].append(np.array(img.resize(SIZE)))

n_train, n_test = len(train['features']), len(test['features'])

### 对数据特征进行维度匹配以便导入神经网络
train['features'] = np.expand_dims(train['features'], axis=-1)
test['features'] = np.expand_dims(test['features'], axis=-1)

print('Total number of classes:{}'.format(n_class))
print('Number of training examples =',n_train)
print('Number of testing examples =',n_test)
print('Image data shape=',train['features'].shape[1:])

上述代码的具体实现流程如下所示:

  1. SIZE 定义了图像的大小,这里是 (32, 32)。
  2. n_class 是交通信号牌的类别数量,由之前加载的 sign_names 字典得到。
  3. 创建了一个空的字典train,包含 'features' 和 'label' 两个键,用于存储训练集的图像特征和标签。
  4. 使用 glob 函数遍历训练集中的每个类别和图像,将图像转换为灰度图,调整大小为指定的 SIZE,并将特征和标签分别添加到 train 字典中。
  5. 创建了一个空的字典test,用于存储测试集的图像特征和标签。
  6. 对测试集的图像进行相同的处理,然后记录训练集和测试集的大小,以及图像的维度信息。
  7. 通过 np.expand_dims 将图像特征的维度进行扩展,以便适应神经网络的输入要求。
  8. 最后,打印输出数据集和图像维度的一些基本信息:
Loading the training set:
100%
43/43 [01:09<00:00, 1.33it/s]
Loading the testing set:
100%
12569/12569 [00:37<00:00, 321.73it/s]
Total number of classes:43
Number of training examples = 26640
Number of testing examples = 12569
Image data shape= (32, 32, 1)

3. 数据增强

这里的数据增强主要是指增加训练集的大小,调整类别分布。

(1)首先通过如下代码统计训练集中每个类别的图像数量,并进行可视化操作。

def get_count_imgs_per_class(y, verbose=False):
    num_classes = len(np.unique(y))
    count_imgs_per_class = np.zeros(num_classes)

    for this_class in range(num_classes):
        if verbose: 
            print('class {} | count {}'.format(this_class, np.sum(y==this_class)))
        count_imgs_per_class[this_class] = np.sum(y==this_class)
    return count_imgs_per_class

class_freq = get_count_imgs_per_class(train['label'])
print('------- ')
print('Highest count: {} (class {})'.format(int(np.max(class_freq)), np.argmax(class_freq)))
print('Lowest count: {} (class {})'.format(int(np.min(class_freq)), np.argmin(class_freq)))
print('------- ')
plt.bar(np.arange(n_class), class_freq , align='center')
plt.xlabel('Class')
plt.ylabel('Frequency')
plt.xlim([-1, n_class])
plt.title("class frequency in Training set")
plt.show()

上述代码的具体实现流程如下所示:

  1. 函数get_count_imgs_per_class()接受一个包含类别标签的数组 y,并返回一个数组,其中每个元素表示对应类别的图像数量。
  2. 通过遍历所有类别,统计每个类别的图像数量,并将结果存储在 count_imgs_per_class 数组中。
  3. 打印输出每个类别的图像数量,如果 verbose 参数设置为 True。
  4. 使用 np.max 和 np.min 分别找到训练集中图像数量最多和最少的类别,并打印出它们的数量和类别索引。
  5. 使用 Matplotlib 绘制了一个柱状图,其中 x 轴表示类别索引,y 轴表示对应类别的图像数量。如图2-8所示。

图2-8  的图像数量和索引柱状图

(2)定义函数 random_transform(),功能是进行随机仿射变换。该函数接受一个图像作为输入,并在给定的参数范围内执行随机的仿射变换,包括旋转、缩放、平移等操作。这样的仿射变换可以用于数据增强,通过对训练数据集中的图像进行随机变换,增加模型对不同变换的鲁棒性。

from skimage import transform as transf

### 仿射变换函数
def random_transform(img,angle_range=[-10,10],
                    scale_range=[0.8,1.2],
                    translation_range=[-3,3]):
    img_height,img_width,img_depth = img.shape
    # Generate random parameter values
    angle_value = np.random.uniform(low=angle_range[0],high=angle_range[1],size=None)
    scaleX = np.random.uniform(low=scale_range[0],high=scale_range[1],size=None)
    scaleY = np.random.uniform(low=scale_range[0],high=scale_range[1],size=None)
    translationX = np.random.randint(low=translation_range[0],high=translation_range[1]+1,size=None)
    translationY = np.random.randint(low=translation_range[0],high=translation_range[1]+1,size=None)

    center_shift = np.array([img_height,img_width])/2. - 0.5
    transform_center = transf.SimilarityTransform(translation=-center_shift)
    transform_uncenter = transf.SimilarityTransform(translation=center_shift)

    transform_aug = transf.AffineTransform(rotation=np.deg2rad(angle_value),
                                          scale=(1/scaleY,1/scaleX),
                                          translation = (translationY,translationX))
    #Image transformation : includes rotation ,shear,translation,zoom
    full_tranform = transform_center + transform_aug + transform_uncenter
    new_img = transf.warp(img,full_tranform,preserve_range=True)

    return new_img.astype('uint8')

在上述代码中,首先定义了一个函数random_transform(),接受一个输入图像作为参数。然后,根据用户指定的参数范围,生成了随机的仿射变换参数,包括旋转角度、缩放因子、以及平移量。接着,通过使用 scikit-image 库中的仿射变换工具,创建了变换对象 transform_center 和 transform_uncenter,用于确保变换的中心位于图像的中心位置。然后,构建了包含旋转、缩放和平移的仿射变换对象 transform_aug。接下来,通过将这些变换对象组合在一起,形成了一个完整的仿射变换 full_tranform。这个变换将应用于输入图像,实现了旋转、缩放和平移等多个变换操作。最后,使用 transform.warp 函数对输入图像执行了完整的仿射变换,并将结果返回为 'uint8' 数据类型。

(3)定义数据增强的函数 data_augmentation(),功能是通过引入数据增强来扩充训练数据集,增强深度学习模型的泛化能力。

### 数据增强函数
def data_augmentation(X_dataset,y_dataset,augm_nbr,keep_dist=True):
    '''
    X_dataset:image dataset to augment
    y_dataset:label dataset
    keep_dist - True:keep class distribution of original dataset,
                False:balance dataset
    augm_param - is the augmentation parameter
                if keep_dist is True,increase the dataset by the factor 'augm_nbr' (2x,5x or 10x...)
                if keep_dist is False,make all classes have same number of images:'augm_nbr'(2500,3000 or 4000 imgs)
    '''
    X_train_dtype = X_dataset
    n_classes = len(np.unique(y_dataset))
    _,img_height,img_width,img_depth = X_dataset.shape
    class_freq = get_count_imgs_per_class(y_train)

    if keep_dist:
        extra_imgs_per_class = np.array([augm_nbr*x for x in get_count_imgs_per_class(y_dataset)])
    else:
        assert (augm_nbr>np.argmax(class_freq)),'augm_nbr must be larger than the height class count'
        extra_imgs_per_class = augm_nbr - get_count_imgs_per_class(y_dataset)

    total_extra_imgs = np.sum(extra_imgs_per_class)

    #if extra data is needed->run the dataaumentation op
    if total_extra_imgs > 0:
        X_extra = np.zeros((int(total_extra_imgs),img_height,img_width,img_depth),dtype=X_dataset.dtype)
        y_extra = np.zeros(int(total_extra_imgs))
        start_idx = 0
        #print('start data augmentation.....')
        for this_class in range(n_classes):
            #print('\t Class {}|Number of extra imgs{}'.format(this_class,int(extra_imgs_per_class[this_class])))
            n_extra_imgs = extra_imgs_per_class[this_class]
            end_idx = start_idx + n_extra_imgs

            if n_extra_imgs > 0:
                #get ids of all images belonging to this_class
                all_imgs_id = np.argwhere(y_dataset==this_class)
                new_imgs_x = np.zeros((int(n_extra_imgs),img_height,img_width,img_depth))

                for k in range(int(n_extra_imgs)):
                    #randomly pick an original image belonging to this class
                    rand_id = np.random.choice(all_imgs_id[0],size=None,replace=True)
                    rand_img = X_dataset[rand_id]
                    #Transform image
                    new_img = random_transform(rand_img)
                    new_imgs_x[k,:,:,:] = new_img
                #update tensors with new images and associated labels
                X_extra[int(start_idx):int(end_idx)] = new_imgs_x
                y_extra[int(start_idx):int(end_idx)] = np.ones((int(n_extra_imgs),))*this_class
                start_idx = end_idx
        return [X_extra,y_extra]
    else:
        return [None,None]

上述代码的实现流程如下所示:

  1. 函数 data_augmentation()会根据用户的选择,决定是否保持原始数据集的类别分布。如果 keep_dist 设置为 True,则会按原始数据集的类别分布增加数据;如果设置为 False,则会平衡数据集,使每个类别都有相同数量的图像。
  2. 接着,根据用户的选择和参数,计算出每个类别需要增加的图像数量,并创建一个新的数组 extra_imgs_per_class 存储这些数量。
  3. 接下来,判断是否需要额外的数据增强。如果需要,创建新的数组 X_extra 和 y_extra 以存储增强后的图像和标签。然后,对每个类别进行循环,选择原始数据集中的图像,通过调用之前定义的 random_transform 函数进行随机仿射变换,并将增强后的图像和标签存储在 X_extra 和 y_extra 中。
  4. 最后,返回增强后的数据集 [X_extra, y_extra],其中 X_extra 包含增强后的图像,y_extra 包含对应的标签。

(4)通过如下代码实现数据集的划分和数据增强功能,这个过程旨在通过数据增强来扩充训练集,使模型更好地学习并提高泛化性能。

from sklearn.model_selection import train_test_split

# TODO: split the data into training and validation subsets
X_train, X_valid, y_train, y_valid= train_test_split(train['features'], train['label'], test_size=0.2, random_state=42)

print('*** Before data augmentation:')
print('Train set size:{}|Validation set size:{}\n'.format(X_train.shape[0],X_valid.shape[0]))

X_extra,y_extra = data_augmentation(X_train,y_train,augm_nbr=2000,keep_dist=False)

if X_extra is not None:
    X_train = np.concatenate((X_train,X_extra.astype('uint8')),axis=0)
    y_train = np.concatenate((y_train,y_extra),axis=0)
    del X_extra,y_extra

print('*** After data augmentation:')
print('Train set size:{}|Validation set size:{}\n'.format(X_train.shape[0],X_valid.shape[0]))

with mpl.rc_context(rc={'font.family': 'serif', 'font.size': 11}):
    fig = plt.figure(figsize=(9.5,3.5))
    ax1 = fig.add_subplot(121)
    plt.bar(np.arange(n_class),get_count_imgs_per_class(y_train),align='center')
    ax1.set_xlabel('Class')
    ax1.set_ylabel('Frequency')
    ax1.set_title('Training Set')
    plt.xlim([-1,43])
    ax2 = fig.add_subplot(122)
    plt.bar(np.arange(n_class),get_count_imgs_per_class(y_valid),align='center')
    ax2.set_xlabel('Class')
    ax2.set_ylabel('Frequency')
    ax2.set_title('Validation Set')
    plt.xlim([-1,43])

上述代码的实现流程如下所示:

  1. 首先,使用函数train_test_split()将训练数据集划分成训练集 X_train, y_train 和验证集 X_valid, y_valid,其中划分比例为 80% 的训练集和 20% 的验证集。
  2. 接着,打印出划分前的数据集大小。
  3. 然后,调用之前定义的 data_augmentation 函数进行数据增强,将额外的数据添加到训练集中。如果需要额外数据,将其追加到原始训练集中。
  4. 最后,打印出划分后的训练集和验证集的大小:
*** Before data augmentation:
Train set size:21312|Validation set size:5328

*** After data augmentation:
Train set size:86000|Validation set size:5328
  1. 使用 Matplotlib 绘制了两个柱状图,分别表示训练集和验证集中每个类别的图像数量。如图2-8所示。

图2-8  训练集和验证集中每个类别的图像数量

4. 构建CNN模型

(1)定义函数preprocessed(),用于对输入的图像数据集进行预处理,其中主要的预处理工作是将图像的像素值缩放到范围 [-0.5, 0.5]。

def preprocessed(dataset):
    n_imgs,img_height,img_width,_ = dataset.shape
    processed_dataset = np.zeros((n_imgs,img_height,img_width,1))
    for i in range(len(dataset)):
        img = dataset[i]
        processed_dataset[i,:,:,:] = img/255.-0.5
    return processed_dataset

X_train, X_valid = preprocessed(X_train), preprocessed(X_valid)

X_train.shape

在上述代码中,对训练集 X_train 和验证集 X_valid 分别调用了 preprocessed 函数,将处理后的数据集保存在相同的变量中。最后打印输出形状大小信息:

(86000, 32, 32, 1)

(2)通过如下代码返回指定图像的形状,由于 X_train 是一个数据集,X_train[1] 表示该数据集中的第二个样本(图像)。因此,X_train[1].shape 将返回该图像的形状。

X_train[1].shape

执行后会输出:

(32, 32, 1)

(3)定义一个名为 TrafficDataset 的数据集类,用于封装交通数据集。这个类继承自 PyTorch 的 Dataset 类,这是一个抽象类,需要实现 __getitem__ 和 __len__ 两个方法。

import torch

#Dataset是一个类 DataLoader是一个封装
from torch.utils.data import Dataset, DataLoader
#封装交通数据集
class TrafficDataset(Dataset): # from torch.utils.data import Dataset
    def __init__(self, data, label):
        self.data = data
        self.label = label
        
    def __getitem__(self, index):
        img = self.data[index]
        img = torch.Tensor(img)
        #需要把最后一位(表示通道数)挪到数组的第一位去
        #permute作用是改变Tensor的维度
        img = img.permute(2,0,1).type(torch.FloatTensor)
        
        if self.label is not None:
            target =  int(self.label[index])
        else:
            target =  100
        
        return img,target

    def __len__(self):
        return self.data.shape[0]

(4)使用 PyTorch中的类DataLoader创建训练、验证和测试数据加载器,这些数据加载器将在训练、验证和测试阶段用于按批次加载数据,方便模型的训练和评估。

bs = 256
#shuffle表示是否打乱数据
train_loader = DataLoader(TrafficDataset(X_train, y_train), batch_size=bs, shuffle=True, num_workers=0)
valid_loader = DataLoader(TrafficDataset(X_valid, y_valid), batch_size=bs, shuffle=True, num_workers=0)
test_loader  = DataLoader(TrafficDataset(test['features'], None), batch_size=bs, shuffle=False, num_workers=0)

(5)从训练数据加载器 train_loader 中获取一个批次的数据,其中 x 是图像数据,y 是对应的标签。通过 for x, y in train_loader: break 这样的语句,可以获取第一个批次的数据。最后,通过 y 查看该批次中图像的标签。

for x,y in train_loader:
    break
y

执行后会输出:

tensor([41, 29, 11, 23, 16, 15, 19, 24,  2, 29, 38, 35, 24, 18,  3, 31, 10, 21,
        41, 11, 19,  7, 35, 26, 27, 29, 16, 11, 24, 20, 37, 14, 42, 27, 25, 30,
        12,  8, 14, 40, 31, 27, 26, 17,  5, 31, 31, 28,  3, 12, 13,  1,  6, 11,
         5, 40, 39,  9, 36,  0, 22, 37, 20, 27,  8, 26, 23, 42,  1, 16,  7, 13,
        40,  6, 28, 26,  4, 26, 36, 42, 30,  3, 16, 16, 39, 42, 12,  3,  3, 27,
         4, 24, 21, 14, 33, 38,  2,  9,  9, 21, 39,  8, 35, 30,  1, 14, 27, 42,
        34,  2, 38, 32, 26, 41, 14, 22, 30, 40, 14,  7, 42, 15,  5, 42, 21,  8,
        37,  3, 32,  4, 28, 42, 28, 41, 21, 14, 14, 28, 15,  0,  6,  3, 24, 24,
        13,  3, 14, 32,  8, 33, 19, 23,  3,  1, 27, 20,  2, 13,  2, 28, 27, 20,
        12, 24, 20, 28, 42,  3, 39, 28,  9,  5, 19, 39, 38,  4,  2,  6, 38, 18,
        19, 24, 28, 22, 10, 40, 42, 37, 22,  0,  4, 40, 37, 31, 25, 11,  9,  9,
        27, 17, 34, 42, 31,  9, 31, 21,  4, 13, 20,  0, 24,  9, 16,  2, 23, 15,
        16, 12, 10, 24, 17, 29, 35, 36,  3, 24, 40,  8, 19, 26,  6, 39,  8, 25,
        36, 29,  0, 12, 37, 25, 17, 27, 14, 31, 21, 19, 14, 11, 10, 26, 35, 26,
        28, 10, 25, 29])

(6)定义了一个名为 TrafficNet 的卷积神经网络(CNN)模型,模型的输出将用于计算损失,并在训练过程中进行优化。

import torch
from torch import nn, optim
from torch.nn import functional as F

# CNN模型主题 上面定义方法 下面直接进行调用
class TrafficNet(nn.Module):
    def __init__(self, num_classes):
        #这里注意一定一定要添加这个!!注意继承规则
        super().__init__()
        self.num_classes = num_classes
        
        self.conv0 = nn.Conv2d(1,6,5)
        self.pool0 = nn.MaxPool2d(2)
        
        self.conv1 = nn.Conv2d(6,16,5)
        self.pool1 = nn.MaxPool2d(2)
        
        self.conv2 = nn.Conv2d(16,400,5)
        self.dropout = nn.Dropout(0.2)
        self.fc = nn.Linear(800,num_classes)
        
        #上面这两层可以写成这样   Sequential表示一个序列
        #self.fc = nn.Sequential(nn.Dropout(0.2),nn.Linear(800,num_classes))
        
        #注意:Pytorch中最后一层的激活函数内含在损失函数中 不能再在这里添加一个激活函数
        
        
    #上面定义卷积 下面来调用
    def forward(self, x):
        x = self.conv0(x)
        x = torch.relu(x)
        x = self.pool0(x)
        x = self.conv1(x)
        x = torch.relu(x)
        x1 = self.pool1(x)
        x2 = self.conv2(x1)
        x3 = torch.relu(x2)
        
        x4 = torch.flatten(x1,start_dim = 1)
        x5 = torch.flatten(x3,start_dim = 1)
        
        x6 = torch.cat((x4,x5),dim = 1)
        
        x = self.fc(x6)
        return x

model = TrafficNet(num_classes=n_class)

对上述代码的具体说明如下:

  1. __init__ 方法:模型的初始化方法,定义了模型的各个层,包括卷积层 (Conv2d)、池化层 (MaxPool2d)、全连接层 (Linear) 以及 Dropout 层。这里使用了三个卷积层和两个池化层,以及一个全连接层,最后输出模型的预测结果。
  2. forward 方法:定义了数据在模型中的前向传播过程。在这个方法中,对输入的数据依次经过卷积、激活函数(ReLU)、池化等操作,最终通过全连接层输出预测结果。
  3. 通过 flatten 操作将两个卷积层的输出展平。
  4. 将展平后的两部分连接在一起。
  5. 通过全连接层 (fc) 输出最终的预测结果。

5. 训练模型

(1)准备训练所需的基础设施,包括文件夹的创建、设备的选择、损失函数的定义以及优化器的设置。

if not os.path.exists('models'):
    os.makedirs('models') # 用于储存模型
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(device)

criterion = nn.CrossEntropyLoss()
model = model.to(device)

lr = 0.001
optimizer = optim.Adam(model.parameters(), lr=lr)

(2)通过如下代码实现了一个简单的 PyTorch 训练循环,这个训练循环执行了多个训练周期(epoch),每个 epoch 都会遍历整个训练数据集。在每个 epoch 中,模型的参数会根据损失进行更新,并且在训练过程中的损失值将被记录。注意,这只是一个简化版本的训练循环,适用于快速了解和尝试。在实际应用中,通常还需要添加验证集的评估、学习率调整、模型保存等功能。

def train_model(epoch, history=None):
    model.train() 
    t = tqdm(train_loader)
    
    for batch_idx, (img_batch, label_batch) in enumerate(t):
        img_batch = img_batch.to(device)
        label_batch = label_batch.to(device)
        
        optimizer.zero_grad()
        output = model(img_batch)
        loss = criterion(output, label_batch)
        t.set_description(f'train_loss (l={loss:.4f})')
        
        if history is not None:
            history.loc[epoch + batch_idx / len(train_loader), 'train_loss'] = loss.data.cpu().numpy()
        
        loss.backward()    
        optimizer.step()
    
    torch.save(model.state_dict(), 'models/epoch{}.pth'.format(epoch))

(3)定义验证函数 evaluate(),用于在每个训练周期结束后对模型进行验证。这个验证函数在模型训练中用于评估模型在验证集上的性能,并可以用于调整超参数或选择最佳模型。

from sklearn.metrics import accuracy_score

def evaluate(epoch, history=None): # 验证函数
    model.eval() # 开启验证模式,此时模型的参数不可修改
    valid_loss = 0.
    all_predictions, all_targets = [], []
    
    with torch.no_grad():
        for batch_idx, (img_batch, label_batch) in enumerate(valid_loader):
            all_targets.append(label_batch.numpy().copy())
            img_batch = img_batch.to(device)
            label_batch = label_batch.to(device)

            output = model(img_batch)
            loss = criterion(output, label_batch)
            valid_loss += loss.data
            predictions = torch.argmax(torch.softmax(output, axis=-1), axis=-1)
            all_predictions.append(predictions.cpu().numpy())
            
    all_predictions = np.concatenate(all_predictions)
    all_targets = np.concatenate(all_targets)
    
    valid_loss /= (batch_idx+1)
    valid_acc = accuracy_score(all_targets, all_predictions)
    
    if history is not None:
        history.loc[epoch, 'valid_loss'] = valid_loss.cpu().numpy()
    
    print('Epoch: {}\tLR: {:.6f}\tValid Loss: {:.4f}\tValid Acc: {:.4f}'.format(
        epoch, optimizer.state_dict()['param_groups'][0]['lr'], valid_loss, valid_acc))
    
    return valid_loss, valid_acc

(4)如下代码实现了一个基本的训练循环,其中包含学习率的调整机制。在每个训练周期中,调用了 train_model 函数进行模型训练,然后调用了 evaluate 函数进行验证,并记录相应的指标。如果验证集上的损失没有下降并持续超过 patience 个周期,就会降低学习率。如果学习率的调整次数超过了 max_lr_changes,则提前停止训练。

history_train = pd.DataFrame()
history_valid = pd.DataFrame()

n_epochs = 100
init_epoch = 0
max_lr_changes = 2
valid_losses = []
valid_accs = []
lrs = []
lr_reset_epoch = init_epoch
patience = 3
lr_changes = 0
best_valid_loss = 1000.

for epoch in range(init_epoch, n_epochs):
    torch.cuda.empty_cache()
    gc.collect()
    train_model(epoch, history_train)
    valid_loss, valid_acc = evaluate(epoch, history_valid)
    valid_losses.append(valid_loss)
    valid_accs.append(valid_acc)

    if valid_loss < best_valid_loss:
        best_valid_loss = valid_loss
    elif (patience and epoch - lr_reset_epoch > patience and
          min(valid_losses[-patience:]) > best_valid_loss):
        # "patience" epochs without improvement
        lr_changes +=1
        if lr_changes > max_lr_changes: # 早期停止
            break
        lr /= 5 # 学习率衰减
        print(f'lr updated to {lr}')
        lr_reset_epoch = epoch
        optimizer.param_groups[0]['lr'] = lr
    
    lrs.append(optimizer.param_groups[0]['lr'])

执行后会打印输出训练过程:

train_loss (l=0.4790): 100%
336/336 [00:09<00:00, 96.23it/s]
Epoch: 0	LR: 0.001000	Valid Loss: 1.4193	Valid Acc: 0.5828
train_loss (l=0.1779): 100%
336/336 [00:03<00:00, 114.63it/s]
Epoch: 1	LR: 0.001000	Valid Loss: 0.6917	Valid Acc: 0.7879
train_loss (l=0.0857): 100%
336/336 [00:03<00:00, 94.72it/s]
Epoch: 2	LR: 0.001000	Valid Loss: 0.3972	Valid Acc: 0.8868
train_loss (l=0.0502): 100%
336/336 [00:03<00:00, 103.70it/s]
Epoch: 3	LR: 0.001000	Valid Loss: 0.3454	Valid Acc: 0.9048
train_loss (l=0.0220): 100%
336/336 [00:03<00:00, 104.69it/s]
Epoch: 4	LR: 0.001000	Valid Loss: 0.2064	Valid Acc: 0.9441
train_loss (l=0.0220): 100%
336/336 [00:03<00:00, 101.27it/s]
Epoch: 5	LR: 0.001000	Valid Loss: 0.1992	Valid Acc: 0.9501
train_loss (l=0.0247): 100%
336/336 [00:03<00:00, 109.78it/s]
Epoch: 6	LR: 0.001000	Valid Loss: 0.1590	Valid Acc: 0.9602
train_loss (l=0.0305): 100%
336/336 [00:03<00:00, 98.88it/s]
Epoch: 7	LR: 0.001000	Valid Loss: 0.1813	Valid Acc: 0.9557
train_loss (l=0.0181): 100%
336/336 [00:03<00:00, 107.51it/s]
Epoch: 8	LR: 0.001000	Valid Loss: 0.1537	Valid Acc: 0.9655
train_loss (l=0.0472): 100%
336/336 [00:03<00:00, 105.17it/s]
Epoch: 9	LR: 0.001000	Valid Loss: 0.1294	Valid Acc: 0.9743
train_loss (l=0.0066): 100%
336/336 [00:03<00:00, 93.60it/s]
Epoch: 10	LR: 0.001000	Valid Loss: 0.1372	Valid Acc: 0.9679
train_loss (l=0.0497): 100%
336/336 [00:03<00:00, 106.84it/s]
Epoch: 11	LR: 0.001000	Valid Loss: 0.1546	Valid Acc: 0.9653
train_loss (l=0.0024): 100%
336/336 [00:03<00:00, 101.38it/s]
Epoch: 12	LR: 0.001000	Valid Loss: 0.1313	Valid Acc: 0.9769
lr updated to 0.0002
train_loss (l=0.0013): 100%
336/336 [00:03<00:00, 100.87it/s]
Epoch: 13	LR: 0.000200	Valid Loss: 0.0910	Valid Acc: 0.9857
train_loss (l=0.0008): 100%
336/336 [00:03<00:00, 102.51it/s]
Epoch: 14	LR: 0.000200	Valid Loss: 0.0894	Valid Acc: 0.9876
train_loss (l=0.0008): 100%
336/336 [00:03<00:00, 111.53it/s]
Epoch: 15	LR: 0.000200	Valid Loss: 0.0900	Valid Acc: 0.9867
train_loss (l=0.0012): 100%
336/336 [00:03<00:00, 107.90it/s]
Epoch: 16	LR: 0.000200	Valid Loss: 0.0905	Valid Acc: 0.9874
train_loss (l=0.0011): 100%
336/336 [00:03<00:00, 107.98it/s]
Epoch: 17	LR: 0.000200	Valid Loss: 0.0952	Valid Acc: 0.9861
lr updated to 4e-05
train_loss (l=0.0002): 100%
336/336 [00:03<00:00, 94.51it/s]
Epoch: 18	LR: 0.000040	Valid Loss: 0.0908	Valid Acc: 0.9886
train_loss (l=0.0008): 100%
336/336 [00:03<00:00, 112.49it/s]
Epoch: 19	LR: 0.000040	Valid Loss: 0.0896	Valid Acc: 0.9882
train_loss (l=0.0006): 100%
336/336 [00:03<00:00, 98.78it/s]
Epoch: 20	LR: 0.000040	Valid Loss: 0.0896	Valid Acc: 0.9886
train_loss (l=0.0012): 100%
336/336 [00:03<00:00, 113.35it/s]
Epoch: 21	LR: 0.000040	Valid Loss: 0.0902	Valid Acc: 0.9884

(5)使用 Matplotlib 绘制训练过程中的一些指标曲线图,这些图形可以用来观察模型在训练过程中的学习状况,包括损失的变化、验证集准确率的变化以及学习率的变化。

with mpl.rc_context(rc={'font.family': 'serif', 'font.size': 11}):
    fig = plt.figure(figsize=(20,5))
    ax1 = fig.add_subplot(131)
    ax1.set_xlabel('Epoch')
    ax1.set_title('Loss')
    plt.plot(history_train.index, history_train['train_loss'])
    plt.plot(history_valid.index, history_valid['valid_loss'])
    plt.legend(['train', 'valid'], loc='upper right')
    ax2 = fig.add_subplot(132)
    ax2.set_xlabel('Epoch')
    ax2.set_title('Accuracy')
    plt.plot(valid_accs)
    plt.legend(['valid'], loc='lower right')
    ax3 = fig.add_subplot(133)
    ax3.set_xlabel('Epoch')
    ax3.set_title('Learning Rate')
    plt.plot(lrs)

执行后绘制的曲线图如图2-8所示。

图2-8  绘制的曲线图

对上述可视化曲线图的具体说明如下:

  1. 使用 mpl.rc_context 设置 Matplotlib 的默认字体和字体大小。
  2. 创建一个包含三个子图的大图 (fig),每个子图用于绘制不同的指标。
  3. 在第一个子图 (ax1) 中,绘制了训练集和验证集的损失曲线。横轴表示训练周期 (Epoch),纵轴表示损失值 (Loss)。使用 plt.plot 绘制训练集和验证集的损失曲线,并使用 plt.legend 添加图例。
  4. 在第二个子图 (ax2) 中,绘制了验证集的准确率曲线。横轴表示训练周期 (Epoch),纵轴表示准确率 (Accuracy)。使用 plt.plot 绘制验证集的准确率曲线,并使用 plt.legend 添加图例。
  5. 在第三个子图 (ax3) 中,绘制了学习率曲线。横轴表示训练周期 (Epoch),纵轴表示学习率 (Learning Rate)。使用 plt.plot 绘制学习率曲线。

未完待续

  • 24
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
非常抱歉,作为一款基于文本的AI型,我无法直提供参考文。但是,我可以为您提供些关于基于语音识别的信灯图像模拟控制技术的一般信息,帮助您进一步究和查找相关参考文献。 基于语识别信号灯像模拟控制技术是指利用语音识别技术来控制交通信号灯。它利用声音信号作为输入,通过识别和分析声音信号中的语音指令,来模拟实际的交通信号灯控制。 在这个领域,您可以查找以下方面的参考文献: 1. 基于语音识别交通信号灯控制系统设计与实现 2. 基于声音信号的交通信号灯控制算法研究 3. 基于语音指令的交通信号灯模拟控制技术综述 4. 语音识别交通信号灯控制中的应用研究 5. 基于深度学习的语音识别交通信号灯控制中的应用 6. 基于声音特征提取的交通信号灯控制算法研究 7. 语音识别技术在交通信号灯控制中的性能评估 8. 基于语音识别交通信号灯控制系统实验分析 9. 语音指令识别交通信号灯控制中的实际应用案例研究 10. 基于深度学习的声音信号处理在交通信号灯控制中的应用 您可以通过学术搜索引擎(如Google学术、百度学术等)或者数字图书馆(如IEEE Xplore、ACM Digital Library等)来查找相关的论文和研究文章。输入关键词,如"voice-controlled traffic signal simulation control"、"speech recognition in traffic signal control"等,可以得到更多相关的文献。 希望这些信息对您有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码农三叔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值