目录
此示例说明如何通过将预训练图像分类模型和 LSTM 网络相结合来创建视频分类网络。
要为视频分类创建深度学习网络,请执行以下操作:
-
使用预训练卷积神经网络(如 GoogLeNet)将视频转换为特征向量序列,以从每帧中提取特征。
-
基于序列训练 LSTM 网络来预测视频标签。
-
通过合并来自两个网络的层,组合一个直接对视频进行分类的网络。
下图说明网络架构。
-
要将图像序列输入到网络,请使用序列输入层。
-
要使用卷积层来提取特征,也就是说,要将卷积运算独立地应用于视频的每帧,请使用一个后跟卷积层的序列折叠层。
-
要还原序列结构体并将输出重构为向量序列,请使用序列展开层和扁平化层。
-
要对得到的向量序列进行分类,请包括 LSTM 层,并在其后添加输出层。
加载预训练卷积网络
要将视频帧转换为特征向量,请使用预训练网络的激活值。
使用 googlenet 函数加载预训练的 GoogLeNet 模型。此函数需要 Deep Learning Toolbox™ Model for GoogLeNet Network 支持包。如果未安装此支持包,则函数会提供下载链接。
netCNN = googlenet;
加载数据
从 HMDB:大型人体运动数据库下载 HMBD51 数据集,并将 RAR 文件提取到名为 "hmdb51_org" 的文件夹中。该数据集包含 51 个类的 7000 个片段、大约 2 GB 的视频数据,例如 "drink"、"run" 和 "shake_hands"。
提取 RAR 文件后,使用支持函数 hmdb51Files 获取视频的文件名和标签。
dataFolder = "hmdb51_org";
[files,labels] = hmdb51Files(dataFolder);
使用在此示例末尾定义的 readVideo 辅助函数读取第一段视频,并查看该视频的大小。该视频是 H×W×C×S 数组,其中 H、W、C 和 S 分别是视频的高度、宽度、通道数和帧数。
idx = 1;
filename = files(idx);
video = readVideo(filename);
size(video)
ans = 1×4
240 320 3 409
查看对应的标签。
labels(idx)
ans = categorical
brush_hair
要查看视频,请使用 implay 函数(需要 Image Processing Toolbox™)。此函数需要数据在 [0,1] 范围内,因此您必须先将数据除以 255。也可以遍历各个帧,并使用 imshow 函数。
numFrames = size(video,4);
figure
for i = 1:numFrames
frame = video(:,:,:,i);
imshow(frame/255);
drawnow
end
将帧转换为特征向量
当将视频帧输入到网络时,通过获取激活值,将卷积网络用作特征提取器。将视频转换为特征向量序列,其中特征向量是 GoogLeNet 网络的最后一个池化层 ("pool5-7x7_s1") 上 activations 函数的输出。
下图说明通过网络的数据流。
要读取视频数据并调整其大小以匹配 GoogLeNet 网络的输入大小,请使用在此示例末尾定义的 readVideo 和 centerCrop 辅助函数。此步骤可能需要很长时间才能完成运行。在将视频转换为序列后,将序列保存在 tempdir 文件夹的一个 MAT 文件中。如果该 MAT 文件已存在,则从 MAT 文件加载序列,而不必重新转换它们。
inputSize = netCNN.Layers(1).InputSize(1:2);
layerName = "pool5-7x7_s1";
tempFile = fullfile(tempdir,"hmdb51_org.mat");
if exist(tempFile,'file