视琦网络训练视频_学术派 | 基于AI的视频精彩度分析技术

本文介绍了爱奇艺在视频精彩度分析上的技术方案,包括监督模型和弱监督模型。通过多模态特征提取、深度标签分布学习和图卷积网络等方法,模型能准确识别视频精彩片段并给出看点标签。此外,还探讨了如何结合用户行为和其他维度信息提高模型性能,以提升用户观看体验和内容分发效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前 言

随着视频数量的爆发式增长,特别是近年来短视频领域的迅速崛起,视频已经成为大部分互联网用户娱乐的首要选择,占据了用户大部分娱乐时间。面对如此海量的视频,如何帮助爱奇艺用户从冗长的视频中筛选出更具吸引力的视频片段,提高用户的观看体验,提升用户粘性,成为我们十分关注的研究课题。为此,我们深入研究了视频精彩度分析技术,成功实现了不同时间粒度下精彩视频片段的自动筛选,并能给出片段包含的看点标签,在多个业务场景中都得到了较好的应用效果。

爱奇艺拥有十分丰富的PPC(Professional Produced Content)视频资源,视频内容多样,仅仅是综艺就可分为搞笑、选秀、访谈、情感、职场、脱口秀等十几种类型,如果每个类型都建立一个精彩度模型,不仅资源消耗巨大,而且模型的自适应能力也将大大降低。学术界的精彩看点检测技术大多聚焦于UGC(User Generated Content)视频,且通常是针对特定领域视频的分析,因而并不适合直接应用于爱奇艺的精彩度分析技术中。业界公开的关于视频的精彩度探索比较少,较有影响力的为2017年百度公开的Video Highlight数据集,该数据集包括1500个综艺长视频,视频总时长约1200小时,只对片段进行了精彩/非精彩标注。如何针对爱奇艺多个业务场景的需求,对内容多样的视频建立通用精彩度模型,并对视频内容进行更加精细化的精彩度分析,是我们面临的主要挑战。

本文将介绍我们探索出的视频精彩度分析技术方案,整体技术框架如下:

6286b402d73f5d1cd103c961478bb5c2.png

图1 视频精彩度分析技术方案

该方案融合了监督模型、弱监督模型和明星、用户片段截取等其他维度的信息,能够综合给出较为符合人为主观评价的视频精彩度评分。下面我们将详细介绍各个模块的具体技术解决方案。

视频精彩度分析技术方案

1视频精彩度监督模型

我们的目标是对视频的精彩度进行较为准确的评分,而非简单的精彩/非精彩二分类,因而我们将精彩度建模为一个回归任务,而建立监督模型的前提是拥有高质量的标注数据集。我们的数据集来自5000多部爱奇艺影视剧和综艺长视频,每条数据为10s左右的视频切片,标注人员对切片根据精彩度进行打分0到10打分,并对精彩切片从场景、行为、情感、对话等多个维度上人工打出精彩看点标签,建立了包含超过36万切片的视频精彩度分析数据集。该数据集具有以下特点:

(1)数据集大,从头训练端到端的模型,训练成本高;

(2)精彩度评分主观性较大,标注人员对同类型切片的打分可能有1-3分的差异;

(3)精彩度评分与精彩看点标签高度相关,精彩切片一定包含看点标签;

(4)看点标签为多标签,标签内部具有较大的相关性,如搞笑和大笑、鼓掌和欢呼等。

针对数据集的以上特点,我们采用迁移学习,先提取多模态特征对视频切片进行表征,再进行后续训练,提高模型性能的同时大大降低了训练成本;对于精彩度分数,采用标签分布学习算法去学习分数标签的分布,而非传统的回归loss;对于看点标签,我们采用典型相关自编码器算法去学习标签内部的相关性;最后我们采用了多任务学习模型,同时训练精彩度分数和看点标签,获得了比单个任务更佳的性能。下图是我们的精彩度监督模型技术框架。

a0a2f811fff96bef913c9b0dc17b88af.png

图 2 精彩度监督模型技术框架

下面我们分别详细介绍各个技术模块:

特征提取

我们的数据集包含超过36万的视频切片,已经超过了行为识别数据集kinetics-400的规模。研究表明,3D CNN是比2D CNN更好的视频表征模型,我们的实验也证明了这一点,但同时3D CNN的模型参数也达到上千万甚至上亿。如果用几十万视频数据从头训练3D CNN模型,每次超参数调优如batch size、学习率、正则系数、优化器等的组合变化,都需要几十万次的迭代才能看到效果,不仅需要耗费更多的计算资源和训练时间,也可能会影响模型的最终效果。

因而,我们借鉴2D视觉任务中比较流行的基于预训练的ImageNet模型进行迁移学习的做法,首先用基于kinetics-400训练得到的行为识别I3D模型,对我们的数据提取视频特征,基于视频特征进行网络训练。另外,我们还基于精彩度数据集对I3D的高层网络进行了微调,用微调网络提取视频特征比直接用原始I3D模型特征效果更好。最后,我们考虑到视频的精彩度不仅与视频的视觉内容有关,还与音频高度相关,因而我们用基于包含200万个10秒音频的AudioSet数据集训练得到的Vggish模型,对我们的数据集提取音频特征,将音视频特征融合后输入自己设计的神经网络进行训练,相比单模态特征,采用多模态特征使得模型性能得到了显著提升。下图是我们基于百度Video Highlight数据集进行精彩度二分类进行的实验结果。

f75a505d4036844b10d7e783f39ed801.png

图 3 不同模型提取特征性能对比

2018年,在kinetics-600数据集公开后,我们在自己的精彩度数据集上,又进行了基于kinetics-600数据集预训练模型进行特征提取的实验。实验表明,相比微调后的kinetics-400模型,直接采用kinetics-600预训练模型使得精彩度评分的mse下降了0.06,而再对kinetics-600预训练模型进行网络微调,则对精彩度评分的性能无显著增益,因而,目前我们线上采用的视频视觉特征提取模型为kinetics-600预训练模型。

精彩度评分

精彩度评分的主观性较强,如果想要获得更加客观真实的训练数据分数标签,需要多人对同一个视频进行标注评分,标注成本巨大。我们的训练集一条数据只有一个受训过的专业人员进行标注,这不可避免的会导致标注分数与真实分数之间有一定差异。为了降低人为标注主观因素对模型的干扰,我们采用深度标签分布学习(Deep Label Distribution Learning,DLDL),即将标注分数转化为一个分布在0-10区间的一个分布,而非直接去用模型拟合学习标注分数。具体地,假设对于数据X,标注分数为S,我们用均值为S,方差为1的高斯分布来拟合其分数分布y,如下:

a3a1f4ca792894ca2fe59315da9d8c24.png

其中

96564cdf74408bc36cd1ecae5bd80dd2.png

为归一化参数。假定我们模型网络的最后一层输出为x,我们用softmax激活函数将输出转化为概率分布,如下:

3ce93fe3041a9e9f1c88c77a494ac3d5.png

我们的目标是优化网路,使得网络输出分布

f8708c5a6b1aea06e3ab007e06c98293.png

与分数分布y尽量相似。如果用KL散度衡量这两个分布的相似性,则损失目标函数为:

092a24140627f1323c905b1068064a76.png

训练完成后,我们用模型输出分布的期望在作为预测分数,即:

f7a314a6ab0c56e72021ce6a7219880e.png

采用DLDL方法能够有效建模精彩度分数标签的不确定性,大大降低了标注噪声的影响,相比使用常规的MSE回归loss,我们的精彩度评分准确性得到比较明显的提升。

精彩看点标签分类

由于一个视频可能包含一个或多个彩看点标签,因而我们的精彩看点标签分类是一个多标签分类任务。多标签分类最简单常用的方法是假设各个标签之间无相关性,在输出层对每一个标签的输出层使用sigmoid激活函数,采用二值交叉熵loss进行独立的二分类。

上述思路存在的问题之一是没有考虑标签间的相关性,而这种相关性可能能够提高特定问题上模型的效果,例如,在进行看点标签分类时,搞笑和大笑经常一起出现,而搞笑与悲伤一起出现的概率则很低,如果能充分利用这种标签间的相关性,则将进一步提升多标签分类模型的效果。其中,标签嵌入(Label Embedding)是常用的一种标签关联方法,它是将标签转换为嵌入式标签向量,从而来获取标签之间的相关性。我们借鉴C2AE (Canonical-Correlated Autoencoder)方法,采用DNN编码获得标签嵌入式表示,并使其与输入特征向量在编码空间产生关联,分类loss则仍采用二值交叉熵损失函数,模型如下:

b2c47e05d4e3967eeae15a92d8e3b997.png

图 4 精彩看点标签分类模型技术框架

上图中,Fx,Fe,Fd是3个DNN,分别代表特征编码、标签嵌入和隐向量解码,具体地,我们的Loss定义如下

5a334eea470e73dd075f0c91332935f6.png

其中相关性分析Loss为:

2cf4d3421f6b0ebd5d0ad707053d37c0.png

标签分类Loss为:

3c463c8b2c114d883fe5aaf29be40433.png

相比常规多标签分类方法,典型相关分析网络的加入使得我们的精彩看点标签分类MAP提升了1.1个百分点。

多任务学习模型

考虑到视频中的精彩度和存在的看点标签是息息相关的,因而我们可以通过联合训练互相促进,从而提升精彩度评分的准确性。我们采用的多任务学习模型如下图:

f5201d46b0998a265840761adcb5df7d.png

图 5多任务学习模型技术框架

多任务学习模型包含基于DLDL的精彩度评分和基于C2AE的精彩看点多标签分类两个子网络,在训练时,我们采用交叉训练的方式,分别优化评分Loss和标签Loss。其中共享神经网络Fs的加入不仅提高了模型分析效率,使网络减少了近50%的模型参数,且通过特征共享进一步提高了精彩度评分的准确性,使得均方误差下降了0.10。

2视频精彩度弱监督模型

虽然我们的视频精彩度监督模型已经具备了良好的精彩度评分能力,但是该模型是建立在昂贵的标注成本之上,模型的可扩展性和更新效率都具有一定的局限性。目前,一些研究将视频精彩度分析建模为一个弱监督任务,取得了较好的效果。爱奇艺拥有海量的用户数据,我们可以从这些珍贵的用户行为数据中,获得与精彩度相关的弱监督数据。例如,爱奇艺有一个用户从长视频中截取片段并进行分享的功能,我们认为,用户一般更倾向于截取视频中更精彩的片段进行分享,即一个视频切片被用户截取片段包含的次数越多,该视频精彩的概率越大,反之,不精彩的概率越大。我们利用这个用户截取片段的行为数据,建立了我们的视频精彩度弱监督数据集,该数据集覆盖电影、电视剧、综艺、动漫四大频道1万多个长视频,共包含近300万个视频切片。我们的弱监督模型采用ranking loss,如下:

6fa7cfcccf16d100e4f8d004e6fae4d4.png

其中视频切片对

e556a1412631d34a6b1d6751f2eb7227.png

,

6a3efdeeae27fb45d30ae6597f6bda6c.png

,来自同一个长视频V,分别代表被用户截取片段包含次数较多的视频切片和被用户截取片段包含次数较少的视频切片,即精彩和非精彩视频切片

f600aa78dae97a6bdd589bfdedc0f38f.png

,

fc55389bf364855e652660e05634a8e5.png

分别为

43a90f1d84c572f9283c82d8a0eb0b42.png

,

5eb7e629f338655c63986f13827eb1cf.png

的特征,

8c1f717b4fb12f1870eb44a695f676e8.png

代表DNN。

上式假设我们的弱监督数据集不包含噪声,然而事实上,相比监督数据集,弱监督数据集包含了更多的噪声,例如在综艺视频唱歌、跳舞的精彩表演片段中,极有可能也包含一些观众、评委观赏等一些不精彩的片段。因此,只有一些样本对是有效的,我们希望模型仅仅学习有效样本对,而忽略无效样本对,为此,我们引入权重变量 ,得到损失函数如下:

f7240541f4e93ee78c13b359d0e8d2cf.png

这种通过某种技术手段对样本label进行重标定的方法在弱监督学习中也比较常用,通常我们可以将样本特征映射到新的特征空间,使得拥有相似表观的视频切片之间的特征距离最近,然后通过K-近邻的思想,通过样本k个最近样本的label对样本的label重新标定。近年来,图卷积网络(Graph Convolutional Networks, GCN)在半监督和弱监督任务中表现出巨大的潜力,取得了较好的效果。在我们的技术解决方案中,也利用了GCN对样本特征进行重新编码,使得相似视频切片的特征聚合在一起。整体技术架构如下图:

24be86fba71e3ccdb1aad1a85eb11cf1.png

图 6 精彩度弱监督模型技术框架

下面具体介绍我们的技术方案。首先,我们把一个长视频包含的所有视频切片作为一个图的节点,视频切片的音视频特征作为节点特征,图的邻接矩阵构造如下:

cf99ccc98d09266d5e8a2cfe753591f0.png

我们采用一个具有低通性质的图滤波器进行图卷积操作,它能够聚合高阶邻接节点的特征来表示当前节点的特征,经过G的作用,相似视频切片的特征更加聚合,相对的,不相似视频切片的特征更加分散,如下图所示:

1

5badba90cf32534f8975eb602f57b730.png

原始特征

2

9f226511ea43bd141475c4a277adbdb0.png

滤波后的节点特征

由上图可以看出,经过图滤波卷积作用后的特征在一定程度上实现了聚类,我们利用图滤波后的节点特征

a6ba24b1c02cafba70053960db99f152.png

,重新构造图如下:

bacb4fe29a4bfec9f86e589f2581d314.png

则节点

d99a0f537bc62ac8a098ef776146cd72.png

属于精彩样本的概率可定义为,

833577fe477b8b600047dc1961385da1.png

其中

0f0a0dc5c98fc325876791876ba17e22.png

为节点

8aec2a0be7859e9478726aab50c46657.png

对应的弱标签。上式可以通过节点

24beb13fc10cae451fa3f1b23b12974c.png

的k个近邻节点的弱标签,得出

2cec303483b9108028c0ba6b6fc1045a.png

属于精彩样本的概率。由置信度不高的样本组成的样本对,我们认为它们是无效的,进而希望Loss可以忽略这些无效样本对,因此修正Loss如下:

e57f1fab0a309ae50d8fe9cf34df5a27.png

其中,

1a01e196b92758347530222a3bcb126c.png

上式中

3c8247e034a501ecb0ad32f50928d4f2.png

e119e86dd8b9497665bd0c9e3597e15a.png

分别是正、负样本是否可信的概率阈值,可根据数据集的噪声水平、正负样本比例等先验设定。

GCN的引入使得视频切片得到更好的特征表示,进而可以根据特征相似性找到近邻样本,从而对自身弱标签进行重新考量,尽量避免噪声样本对Loss的影响,使得我们的精彩度弱监督模型对于标签噪声更加鲁棒。在模型预测时,只需将测试样本输入到图5中的DNN模块,即可得到样本精彩度预测分数。弱监督模型在性能上略差于监督模型,但是大大降低了获取数据的成本,可扩展性更强。在业务应用中,我们将监督模型和弱监督模型精彩度分数预测结果进行融合,相比单一监督模型,使得优质视频片段的分类准确率提高了约2个百分点。

3融合更多维度信息的精彩度

PPC视频中的精彩度不仅仅与视频本身的视觉和音频内容有关,还与很多其他因素有关,例如是否包含明星以及明星的重要程度、受欢迎程度等,这也是PPC与UGC视频最大的不同。因而,我们在模型精彩度打分的基础上,还根据视频片段内的人脸识别信息和人脸时长占比,得到视频片段内包含的主要明星信息, 根据主要明星在视频中的重要程度(可根据是否为主演、常驻嘉宾等信息计算)和受欢迎程度(可根据明星热度、明星影响力等信息计算)得到一个明星精彩度得分。

在冷启动阶段,模型精彩度分析对优质内容的筛选尤其重要,但当视频上线一段时间后,我们也可以根据与该视频相关的一些用户行为对我们的模型精彩度打分进行进一步修正。比如上文提到的用户截断片段信息,我们根据被用户截取片段包含次数的多少,经过一定的数据分析和处理,也可以得到一个精彩度分数;基于用户在观看视频中时产生的快进、快退等拖拽行为得到的数据,也在一定程度上反映了视频片段在用户中的受欢迎程度。

在实际的业务场景中,我们将明星精彩度和用户截取片段等用户行为数据信息与模型分数融合,有助于帮助我们找到模型难以召回的热点内容,使得视频的精彩度评分的准确性得到进一步提高。

总结和规划

我们的视频精彩度技术方案已在多个业务场景中实现落地和应用,如生成AI广告产品前情提要、辅助创作,筛选优质视频进行智能分发、自动生成精彩集锦等,明显提升了业务产出质量和效率。

在后续的研究中,我们会从特征提取、算法模型和融合更多维度的信息等方面继续进行优化,建立更加完备的视频精彩度分析系统,具体包括以下几方面:

1)特征提取:目前我们的视频特征包括视觉和音频特征,后续我们将加入文本特征,也将进一步探索多模态特征的融合方式。

2)算法模型优化:我们分别利用标注数据集和弱标签数据集训练了监督模型和弱监督模型,然后对两个模型预测的精彩度分数进行后融合。后续我们打算利用半监督的思想,将标注数据集和弱标签数据集联合进行训练,有望获得更好的模型性能。

3)融合更多维度的信息:爱奇艺已经拥有多种标签识别模型,如行为识别、物体检测、场景分类、音频分类、台词分类等,我们可以融合这些模型对视频片段的分析结果,进一步修正精彩度分数,完善精彩看点标签。

参考文献:

[1] https://ai.baidu.com/broad/introduction

[2] Gao B B, Xing C, Xie C W, et al. Deep label distribution learning with label ambiguity[J]. IEEE Transactions on Image Processing, 2017, 26(6): 2825-2838.

[3] Yeh C K, Wu W C, Ko W J, et al. Learning deep latent space for multi-label classification[C]//Thirty-First AAAI Conference on Artificial Intelligence. 2017.

[4] Xiong B, Kalantidis Y, Ghadiyaram D, et al. Less is more: Learning highlight detection from video duration[C] // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019: 1258-1267.

[5] Zhao K, Chu W S, Martinez A M. Learning facial action units from web images with scalable weakly supervised clustering[C]//Proceedings of the IEEE Conference on computer vision and pattern recognition. 2018: 2090-2099.

[6] Kipf T N, Welling M. Semi-supervised classification with graph convolutional networks[J]. arXiv preprint arXiv:1609.02907, 2016.

[7] Li Q, Wu X M, Liu H, et al. Label efficient semi-supervised learning via graph filtering[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019: 9582-9591.

[8] Zhang X, Liu H, Li Q, et al. Attributed graph clustering via adaptive graph convolution[J]. arXiv preprint arXiv:1906.01210, 2019.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值