ViT图文讲解1
视频:VIT (Vision Transformer) 模型论文+代码(源码)从零详细解读
每个token再转化为词向量 再去加positional encoding
3.1对应粉色的* 首先各个patch粉色的都有,然后3.1生成cls标记的*(应该是初始位置),3.2再从初始位置开始从0往后标号,3.3再将token embedding和位置编码相加
这两任务在池化时会有一定重复
CLS:多分类任务时用于代表该image,加上cls则用cls表示该image token,不加cls则可以每个token输出再池化(求mean)
告诉模型:哪些词在前哪些词在后
input部分↑ encoder部分↓
5:拿到linear层做多少类分类
代码角度实现VIT详解:
ViT视频讲解2
实例
Dropout通过使其他隐藏单元存在不可靠性来防止过拟合(Hinton称防止训练数据进行复杂的协同调整) Dropout训练的神经网络中的每个隐藏单元必须学会使用随机选择的其他单元样本。
ViT相关专利框架参考
《结合显著特征筛选和VIT的面部表情识别方法》:DFFVIT模型同样为VIT的变体,通过加入光照归一化和特征注意力模块,使其适用于人机交互场景下的表情识别任务。
针对问题:人的动态行为、不稳定的光源→面部细节特征无法有效提取,降低了面部表情识别的准确率
根据问题给出的模型:结合显著特征筛选和视觉转化器
采用方法:亮度平衡(加权求和光照归一化方法 削弱光照对表情识别的影响)、提取面部特征(利用卷积神经网络),聚合面部局部-全局上下文信息(使用显著特征筛选模块 筛选显著细节,过滤无用信息),加强面部特征之间的关联性(应用多层transformer编码器),对面部表情进行预测(softmax函数)
人脸面部表现识别的三个阶段:人脸图像收集与检测、*面部特征提取*、表情识别
针对面部表情特征提取的缺点——面部图像出现不确定因素:应用注意力机制于网络模型中,使其关注面部图像显著特征,如:ACNN感知人脸遮挡区域并关注最具判别性的未遮挡区域