Deep Reinforcement Learning for Unsupervised Video Summarization阅读笔记

本文介绍了一种使用深度强化学习(DSN)进行无监督视频摘要的方法,通过多样性-代表性奖励函数优化帧选择。DSN结合CNN和双向LSTM,首次将强化学习应用于无监督视频摘要,无需标签或用户交互。实验表明,这种方法在SumMe和TVSum数据集上优于其他无监督方法,甚至与一些监督方法相当。
摘要由CSDN通过智能技术生成

Deep Reinforcement Learning for Unsupervised Video Summarization with Diversity-Representativeness Reward论文阅读笔记

论文整体概述

对于视频摘要,本文使用了一种无监督的方法,作者认为监督学习不能充分探索深度网络用于视频摘要的潜力,前人有人使用DPPLSTM网络应用于视频摘要,本文将视频摘要描述为一个顺序的决策过程,提出了一个DSN网络,这种网络具有编码结构,其中编码器是一个卷积神经网络(CNN),它对视频帧进行特征提取,解码器是一个双向LSTM网络,他产生基于哪些动作采样以选择帧的概率,并提出了一个端到端、基于强化学习的框架,具有多样性、代表性奖励函数,共同考虑生成摘要的多样性和代表性,不依赖于标签或者用户交互,多样性奖励测量所选帧之间的差异,代表性奖励计算帧与最近的选定帧之间的距离,本文是第一次将强化学习应用于无监督视频摘要。使用强化学习训练DSN网络的原理是双重的,首先使用RNN网络作为我们模型的一部分,将重点放在无监督设置上。作者推测DSN可以从强化学习中获得更多的好处,因为强化学习本质上是通过迭代采取更好的行动来优化帧选择的机制。

本文主要贡献

①开发了一个端到端、基于强化学习的DSN框架,在该框架中,提出了一个无标签的奖励函数,他共同考虑了生成摘要的多样性和代表性,并第一次将强化学习应用到无监督视频摘要;

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值