ViT学习笔记1 | 图文和代码讲解&相关专利框架借鉴

 ViT图文讲解1

什么是VIT?

ViT(Vision Transformer)解析

视频:VIT (Vision Transformer) 模型论文+代码(源码)从零详细解读

每个token再转化为词向量 再去加positional encoding

3.1对应粉色的*    首先各个patch粉色的都有,然后3.1生成cls标记的*(应该是初始位置),3.2再从初始位置开始从0往后标号,3.3再将token embedding和位置编码相加

这两任务在池化时会有一定重复

CLS:多分类任务时用于代表该image,加上cls则用cls表示该image token,不加cls则可以每个token输出再池化(求mean)

告诉模型:哪些词在前哪些词在后

input部分↑ encoder部分↓

5:拿到linear层做多少类分类

代码角度实现VIT详解:

 ViT视频讲解2

实例

Dropout通过使其他隐藏单元存在不可靠性来防止过拟合(Hinton称防止训练数据进行复杂的协同调整)  Dropout训练的神经网络中的每个隐藏单元必须学会使用随机选择的其他单元样本。

ViT相关专利框架参考

《结合显著特征筛选和VIT的面部表情识别方法》:DFFVIT模型同样为VIT的变体,通过加入光照归一化和特征注意力模块,使其适用于人机交互场景下的表情识别任务。

针对问题:人的动态行为、不稳定的光源→面部细节特征无法有效提取,降低了面部表情识别的准确率

根据问题给出的模型:结合显著特征筛选和视觉转化器

采用方法:亮度平衡(加权求和光照归一化方法 削弱光照对表情识别的影响)、提取面部特征(利用卷积神经网络),聚合面部局部-全局上下文信息(使用显著特征筛选模块 筛选显著细节,过滤无用信息),加强面部特征之间的关联性(应用多层transformer编码器),对面部表情进行预测(softmax函数)

人脸面部表现识别的三个阶段:人脸图像收集与检测、*面部特征提取*、表情识别

针对面部表情特征提取的缺点——面部图像出现不确定因素:应用注意力机制于网络模型中,使其关注面部图像显著特征,如:ACNN感知人脸遮挡区域并关注最具判别性的未遮挡区域

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值