WWW 2024 | 华为、清华提出个性化多模态生成新方法,让AIGC更懂你

187c20356ad23cc2e09eab7416818cbb.png

本文约3000字,建议阅读6分钟来自华为和清华的研究者率让多模态生成的内容个性化。

Stable Diffusion、Midjourney 和 Sora 等文生图/视频模型获得惊人的效果,但他们对于不同的人生成的结果都一样,不具备个性化。下面这篇论文中,来自华为和清华的研究者率先让多模态生成的内容个性化,使生成的内容更懂用户,更具吸引力。

c36feb6b970da7fd2fd9f0e09662b80a.png

论文标题:

PMG: Personalized Multimodal Generation with Large Language Models

收录会议:

ACM Web Conference 2024

论文链接:

https://arxiv.org/abs/2404.08677

代码链接:

https://github.com/mindspore-lab/models/tree/master/research/huawei-noah/PMG

个性化生成指的是将用户的偏好作为依据进行生成,让用户更容易对生成的内容产生兴趣。图 1 展示了其在聊天软件中的应用场景,当用户输入“很好玩!”时,聊天软件能够捕捉用户开心、快乐的情绪,并自动生成笑脸表情供用户使用。

个性化生成则会进一步考虑用户历史行为中表现出的对“可爱的小猫”的偏好,进而生成更可能受用户青睐的笑脸猫表情。除此之外,该技术还可以广泛应用于电商(例如生成个性化背景、人体形态、颜色)、在线广告、游戏、创作辅助等领域。

4a8987ba5a98cb37c2fff27cdaf45d2c.png

▲ 图1. 在聊天软件中个性化生成能够根据用户偏好,生成符合其偏好的表情包。


1、方法

本工作提出了一个基于大语言模型的个性化多模态内容生成方法,称为 PMG(Personalized Multimodal Generation)。下面图 2 用个性化生成《泰坦尼克号》电影海报为例展示了其模型结构。

1.1 方法总览

cc0563fd0fab311c84bb28eec490118a.png

▲ 图2 PMG 的模型结构

在本例中,用户历史行为指的是其观影和对话历史,目标物品则是电影《泰坦尼克》真实的电影海报。实现个性化的第一步是提取用户偏好,这里我们利用大模型对用户历史行为进行分析来实现。我们采用两个互补的方法:

① 通过冻结的大语言模型,从用户行为数据中提取出能够明确表达其偏好的自然语言关键词(称为“硬用户偏好”);

② 训练可调整的大语言模型,从用户行为中学习出隐含的偏好向量(称为“软用户偏好”)。

与此同时,目标物品(即电影《泰坦尼克》)也被大模型转换为显式关键词(称为“目标物品关键词”)用于控制生成的具体内容。最终,这些用户偏好信息和目标项关键词将被整合到生成模型(例如扩散模型或多模态大语言模型)中,得到既反映用户个性偏好、又符合目标物品的多模态生成结果。


1.2 关键词生成

为了从用户的历史行为中提取出反映其个性化偏好的关键词,我们人工构造了提示词以对大语言模型进行指导。具体来说,提示模板中包含三个关键要素:任务指令 、属性  和任务示例 。

任务指令  描述了需要大语言模型执行的任务(即“提取用户偏好”)。属性  是各个场景中生成时需要重点关注的多个角度,例如对于表情包可以是“情绪、角色、风格”,对于电影海报可以是“年代、演员、类型”等等。示例  则提供了期望的输出格式和样例关键词,不仅有助于指导模型的回答,也确保了输出结果的标准化。

有了这个提示模板,我们就可以让大语言模型针对每个属性  生成相应的用户偏好关键词 ,并将它们组合在一起,形成全面反映用户偏好的关键词集合。

8871ef0b13c5c8ff4cf912ee2619cc30.png

生成目标项目关键词  的过程则相对简单,这里只有一个单独的 ,且没有涉及到对话数据 :

40a3f8f676644615c67d1c6ec44557f9.png

1.3 隐向量生成

在关键词生成模块中,我们已经提取出的关键词集合  和 ,这种离散的语义表示能够直观地概括关键信息。而为了更加精准地反映用户偏好和目标物品的特征,我们还引入了连续的隐向量表示,以期捕捉更丰富和细腻的语义特征。

这种结合关键词和隐向量的混合表示方式,可以很好地弥补单一表示形式的不足。自然语言关键词虽然易于理解和解释,但表达能力受限,而隐向量虽然可以提供更精细的语义刻画,却需要更多的训练资源和计算开销。只有将两者进行混合表示,才能够兼顾准确性和效率。

隐向量的训练过程如图 3 所示。为了增强大语言模型对多模态生成任务的理解,消除生成过程中的语义偏差,我们引入 P-Tuning V2 [1] 和多模态表征对大模型进行微调,称之为“偏差校正大模型”。这些多模态表征会被传递给大语言模型,并且它们在向量层中的对应参数是可训练的。

在  P-Tuning V2 的方法中,每个 Transformer 层的向量序列都被添加了  个前缀向量 ,它们和多模态表征  一起作为该模型的可训练参数。该过程可以表示为:

c7a27b5ae76199f375fb4a2d4cf21c2e.png

其中  和  表示大语言模型的两部分输出, 被作为从多模态表征中提取出的偏好隐向量,这部分输出将被用于后续的生成任务。生成器结合这个偏好隐向量以及用户关键词,生成出最终的多模态内容,生成的结果与监督信号进行 MSE 损失计算,并通过反向传播的方式,更新可训练的偏差校正大模型参数。

25f58ff0428766c5bd8eff8cf252c979.png

▲ 图3 用户偏好向量训练流程

1.4 用户偏好和目标项的平衡

在生成推理过程中,总共有两个重要的条件需要考虑,即用户偏好条件和目标项条件,简单地进行组合可能导致过于关注其中一个条件,而忽略了另一个条件,我们需要一种方法来平衡两者在生成过程中的权重。对此,我们引入了两个指标来评估生成结果的质量:

① 个性化水平:这个指标反映了生成内容与用户偏好之间的相似程度。它可以帮助我们确保生成结果能够契合用户的个人喜好。

② 准确度:这个指标则衡量了生成内容与目标内容之间的匹配程度。它可以确保生成结果能够满足预期的目标要求。

通过同时监控这两个指标,我们可以全面地评估生成效果,确保在满足用户偏好和目标要求之间达到适当的平衡。具体来说,这两个指标的计算是通过预训练的多模态网络(如 CLIP),将生成结果  和关键词  转换为向量 ,它们之间的余弦相似度被作为个性化水平  和准确度 。

df2fb109ec7f95fabd710cdb55896a66.png

平衡这两个指标的方式为最大化  和  对数的加权和:

ef88565dadb53eafb267f7a0a4f5d19f.png

由于取了对数,优化目标会更重视弱势指标的数值提升。超参数  通常设置为0.5,也可以根据使用场景和需求进行调整,以实现不同程度的个性化。

2、实验结果

为了验证 PMG 模型的性能,我们设计了服装图像、电影海报、表情符号三个典型的应用场景,使用 Llama2-7B 作为基础的大模型进行了实验,生成效果如图 3 至  5 所示。在每个场景中,PMG 都能够生成反映用户偏好的个性化内容。

(1)服装图像生成:我们使用时尚服装数据集 POG,基于用户的历史浏览记录,生成个性化的服装图像。例如,为男性用户生成更偏男性风格的服装,为女性用户生成更偏女性风格的服装。

(2)电影海报生成:我们使用 MovieLens 数据集,根据用户的观影历史,生成个性化的电影海报。例如,为喜欢看卡通电影的用户,生成更卡通风格的电影海报。

(3)表情符号生成:利用用户的对话和表情使用记录,生成个性化的表情符号。例如,为喜欢小动物的用户,生成一些小猫咪表情。

76d62bc0731461a1ce5df7376418daf3.png▲ 图4 服装场景生成效果

cc5a69a71a3b4b69c0d03185b4b2bfee.png

▲ 图5 电影海报场景生成效果

7b933287d9bb6e5b5143384563dbd5af.png

▲ 图6 表情包场景生成效果

我们用 POG 和 MovieLens 数据集对服装和电影海报这两个场景进行了量化评估,评估采用图像相似度指标 LPIPS 和 SSIM,其中“历史”列表示生成结果与用户历史交互项目之间的相似度,用于衡量生成的个性化程度;“目标”列表示生成结果与目标物品之间的相似度,用于衡量生成的准确度。测试结果如下表,PMG 在实现了在不损失准确度的情况下,大幅度提升了生成结果的个性化程度。

b5c6c64f964220f43019c3e375192dee.png

我们也通过用户调研的方式进行了评估,结果是 PMG 产生的内容得分远超过没有个性化的生成内容,这表明个性化多模态生成能够有效改善用户体验,将有广阔的应用空间和巨大的商业潜力。

3、总结

在这篇论文中,我们提出了一种名为 PMG 的方法,用于个性化多模态生成。利用大型语言模型,我们提取用户偏好并将其作为生成器的生成条件以实现个性化。个性化多模态生成技术有巨大的应用潜力,但相关研究尚处于探索阶段,这项工作为其进一步发展铺平了道路,使得创造定制和引人入胜的用户体验成为可能。

参考文献:

[1] Liu, X., Ji, K., Fu, Y., Tam, W. L., Du, Z., Yang, Z., & Tang, J. (2021). P-tuning v2: Prompt tuning can be comparable to fine-tuning universally across scales and tasks. arXiv preprint arXiv:2110.07602.

编辑:于腾凯

校对:林亦霖

关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。

03b7b7a1b67a8a2f47f3cc632cfdf24f.png

新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值