阅读文献记录四(跨模态数据增广)

本文探讨了在连续手语识别中,通过跨模态数据增广方法解决优化目标与评价指标不一致的问题。提出真伪辨别损失函数,结合CTC、语义一致性损失,优化视频和文本间的匹配。框架利用BLSTM和多任务损失,增强数据并提升识别精度。
摘要由CSDN通过智能技术生成

基于跨模态数据增广的视频连续手语识别


问题1:连续手语识别中优化目标和评价指标不一致的问题。例如:最大解码概率预测句子可能不是在误字率标准下最好的选择。

解决方法:提出了一种基于跨模态增强的框架,首先通过模拟误字率的计算过程来增强跨模态数据,即对句子和其对应视频采取替换、删除和插入操作。

创新点:为了最小化真实手语视频与其对应真实标签之间的距离,同时最大化真实手语视频与伪标签之间的距离,本章提出了一项真伪辨别损失函数。

本章提出了多项损失函数,旨在缩小视频与对应文本之间的跨模态距离。

真伪辨别损失函数:1.最大化真实手语视频与其对应真实标签之间的距离;2.最大化真实手语视频与伪标签间的距离。

CTC 损失函数:真实与伪标签对齐;

跨模态语义一致性损失函数:最小化真实手语视频与文本之间的跨模态距离。

最终的优化损失函数由CTC损失函数、真伪辨别损失函数、跨模态语义损失函数相加而成;

框架示意图:

 增广文本序列的方法包括同义词替换、随机交换、随机删除等。生成伪视频-文本对。

序列模型:使用BLSTM,它能够抓住以前向和反向的方式捕获时间依赖性;

文本编码器:为了约束视觉特征与文本序列之间的语义一致性;

使用三元组损失函数最小化锚点与正样本之间的距离,同时最大化锚点与负样本之间的距离;

将特征分为两组,

分别表示真实视频,真实文本,伪文本,伪视频。真实视频与真实样本之间的特征距离理应比真实视频与伪文本之间的距离更近。

真实视频为锚点的真伪辨别损失函数如下定义:

 真实文本锚点的真伪分辨损失函数如下定义:

 真伪辨别损失为上述两个部分的相加。

真伪辨别损失聚焦于视频与文本之间的相对距离。
之间的距离度量使用动态时间规整(DTW)算法衡量;

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值