港中大和商汤提出HPS v2:为文本生成图像模型提供更可靠的评价指标

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【扩散模型和Transformer】交流群

cd09e133fc2106ed26ba04b353adba82.png

TL;DR 本文提出了一个目前数据量最大的、涵盖面最广、反应人类对生成图像喜爱程度的数据集:HPD v2, 并基于该数据集,提出了目前泛化性最强的“人类喜好评估模型”:HPS v2。HPS v2可以类比为ChatGPT中的reward model,可以用于图像生成模型的对齐以及评估。

论文:https://arxiv.org/abs/2306.09341

代码:https://github.com/tgxs002/HPSv2

背景

文生图模型的出现颠覆了人类的绘图方式,只需寥寥数字便可根据描述生成逼真的图像。然而,不少工作已经证明现有的评价指标(例如FID,IS,CLIP Score等)无法有效预测人们对于生成图像的喜好程度。

2ee7b1130a85134c733f0184d872e131.png

人类偏好数据集 HPD v2

为了解决这个问题,本文推出了一个名为HPD v2的全新数据集,它类似InstructGPT论文中的compaison data,包含了0.8M图片之间的comparison,反映了人们对不同图像的喜爱程度,是目前同类型数据集中最大的一个。

5a63755ee0fd81f6ecce56f9a547a389.png

如上图所示,我们先对COCO Caption和DiffusionDB的文本进行清洗,去除繁杂的风格词汇。再用Stable Diffusion,DALL-E等近十个文生图模型(如下表所示),生成了超过43万张图片。我们请标注员对这些图片按组进行排序,从而构成我们的数据集。下图展示了我们的图像来源分布。

a0999344c16ff42c53e66b128b1d61e9.png

人类偏好分数 HPS v2

通过对HPD v2数据集的训练,我们训练了一个模型来拟合人类对图像的喜好:HPS v2。实验结果显示,HPS v2比以前的模型(包括 HPS v1、ImageReward 和 PickScore等)具有更好的泛化能力,并可作为文生图模型更好的评估指标。

a38ef076d1ea9f335c2a5d1a26747729.png

在下图中,我们展示了由6个开源文生图模型生成的图像的HPS v2指标,可以看到,HPS v2 与人类的主观感受有良好的一致性。

060bb6d05107e47407270dfa7930df20.png

文生图模型评价基准

为了方便后续文生图模型的比较,我们还提出了一套稳定、公正且易用的测试文本,并用HPS v2对来自学术界和工业界最新的文生图模型进行测试,构建了一个较为完备的评价基准,如下表所示所示。

58d31a7dc17e7548407a670cf582d178.png

我们期望我们提出的人类偏好分数HPS v2和文生图模型评价基准,可以为文生图模型的研发提供一个客观的衡量标准,从而促进文生图领域研究的发展。

如何优化HPS v2?

本文提出两个简单的方案,可以提高生成图像的分数,为后续研究工作抛砖引玉。一个是用参考图像的特征提供更好的文生图初始化噪声。我们发现,在训练Stable Diffusion时,模型并没有见过纯噪声的输入,但推理时模型的输入却是从纯噪声开始的,这与训练阶段不一致。基于这一观察,我们尝试将参考图像的特征与随机噪声混合作为初始化噪声。如下图所示,我们的方法有效地提高了生成图像的HPS v2,并提高了对于生成结果的控制力度。

9257a4b51e1404fc4dd003656ddca72a.png

第二个方案是如HPS v1中介绍的,在关键词中给定一些有助于提高质量的标记。我们在此进行了量化的对比。如下表所示,这两种方法均提升了生成图像的HPS v2值,其中给定额外的标记能大幅提升生成质量。

da625cce8ebc5690aec01f7db8635f6e.png

总结

本文提出了目前数据量最大、覆盖模型最多的、反映人类对生成图像喜爱度的数据集HPD v2,并基于该数据集提出了最具泛化性的人类喜好评估模型HPS v2和一套稳定、公正、易用的文生图模型的评价基准。本工作为文本到图像生成模型的质量评估提供了一种新的方法,为模型改进和进一步研究提供了有力支持。

点击进入—>【扩散模型和Transformer】交流群

最新CVPR 2023论文和代码下载

 
 

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

扩散模型和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-扩散模型或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如扩散模型或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer333,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!

▲扫码进星球
▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看3c2722c5fd4515262b1740dc3b33bc98.gif

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
商汤LoFTR是一种基于Transformer的视觉特征匹配算法,其主要用途是在图像拼接、图像配准、图像检索等领域进行特征匹配。下面是对商汤LoFTR源码的详细解释。 1. 代码结构 商汤LoFTR源码主要包含以下几个文件: - models.py:包含了特征提取器和特征匹配器的代码。 - utils.py:包含了一些用于数据处理和模型训练的辅助函数。 - datasets.py:包含了用于加载数据集的代码。 - train.py:包含了模型训练的代码。 - inference.py:包含了模型推理的代码。 2. 特征提取器 商汤LoFTR使用的特征提取器是一个基于Transformer的网络,由多个Encoder和Decoder组成。在商汤LoFTR中,Encoder和Decoder都是由多个Self-Attention层和全连接层组成的。 在Encoder中,Self-Attention层用于在输入序列中寻找相关的信息,并将其编码为一个固定长度的向量。全连接层用于将这些向量合并到一起,生成一个包含整个输入序列信息的向量。 在Decoder中,Self-Attention层用于在给定的查询序列中寻找与输入序列相关的信息,并将其编码为一个固定长度的向量。全连接层用于将这些向量合并到一起,生成一个包含整个查询序列信息的向量。 3. 特征匹配器 商汤LoFTR使用的特征匹配器是一个基于双向长短时记忆网络(BiLSTM)和点积注意力机制的网络。该模型输入两个特征向量序列,并输出两个序列中每个位置的相似度得分。 在特征匹配器中,BiLSTM用于对输入序列进行编码,并将其转换为一个高维度的表示。点积注意力机制用于将两个特征序列中相似的位置进行匹配,生成相应的相似度得分。 4. 数据集 商汤LoFTR支持使用自定义数据集进行训练和测试。数据集可以包含多个图像,每个图像可以包含多个特征点。商汤LoFTR使用OpenCV库中的SIFT算法对图像进行特征点提取。 5. 模型训练 商汤LoFTR的模型训练分为两个阶段。 第一阶段是特征提取器的预训练。在此阶段,使用大量的无标签图像数据对特征提取器进行训练,以便使其能够从图像中提取出有用的特征。 第二阶段是特征匹配器的训练。在此阶段,使用有标签的图像对数据集对特征匹配器进行训练,以便使其能够将两个图像中的特征点进行匹配。 6. 模型推理 商汤LoFTR的模型推理主要分为两个步骤。 第一步是使用特征提取器对输入图像进行特征提取。在此过程中,商汤LoFTR使用OpenCV库中的SIFT算法对图像进行特征点提取,并将提取到的特征点通过特征提取器进行编码。 第二步是使用特征匹配器对两个输入图像中的特征点进行匹配,并输出每个特征点的匹配结果。 7. 总结 商汤LoFTR是一种基于Transformer的视觉特征匹配算法,其主要用途是在图像拼接、图像配准、图像检索等领域进行特征匹配。商汤LoFTR的源码结构清晰,可以通过自定义数据集进行训练和测试。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值