这篇文章是2019年的关于小样本在行为识别领域的应用,其主要是通过对齐两个视频的帧,用最小路径的代价衡量两个视频的相似度从而实现视频分类的。
小样本学习中的一些术语
training datasets:含有大量带标注的样本
support set:仅具有少量样本的新数据集
query set:待分类的视频集合
n-way,k-shot:support集中含有n个类别,每个类别有k个样本,这个k值很小。
小样本学习解决的是,给定一个训练集其包含了丰富的带标签的样本C_train,和一个具有少量样本带标签C_test。在只有少量样本的情况下模型如何准确地识别出这些new-class呢?
有些研究提出先在C_train上训练一个模型,然后在C_test上对模型进行微调,使用微调后的模型识别new-class。但是如果新类的样本比较少但每个样本之间的变化比较大的时候,使用微调就会导致过拟合问题。目前相关的工作都存在一个问题,即它们都会将提取的特征进行压缩,如temporal pooling,都忽视了时间order。因此作者基于序列匹配提出了temporal alignment来匹配query视频和 support视频的序列帧,根据匹配度实现动作分类。
上图即视频帧的匹配过程,将其看作一个矩阵,行代表query视频,列代表support视频。黑线代表该方格对应行列的帧内容最接近,即query视频中第二帧和support视频中的第一帧最接近。黑色箭头表示的是帧匹配的路径,该路径是所有匹配路径中花费代价最小的。