这是这两天刚出的一篇文章(cvpr),在DGfont里面改进而来的。
Abstract
内容与样式的分离是实现少镜头字体生成的有效途径。它允许将源域中的字体图像的样式转换为目标域中由一些参考图像定义的样式。但是,使用代表性字体提取的内容特征可能不是最佳的。基于此,我们提出了一种内容融合模块(CFM),将内容特征投影到由基本字体内容特征定义的线性空间中,该空间可以考虑不同字体引起的内容特征的变化。我们的方法还允许通过轻量级迭代风格向量细化(ISR)策略优化参考图像的风格表示向量。此外,我们将字符图像的1D投影作为一个概率分布,并利用两个分布之间的距离作为重建损失(即投影字符损失,PCL)。与L2或L1重构损失相比,分布距离更关注字符的全局形状。已经在300个字体,每个字体6.5k字符的数据集上评估了我们的方法。实验结果证明,我们的方法在很大程度上优于现有的最先进的少镜头字体生成方法。源代码可以在https://github.com/wangchi95/CF-Font上找到。
1. Introduction
少镜头字体生成的目的是根据少量参考图像,将字体图像从源域转换到目标域,生成新的字体字符。它可以大大减少专业设计人员创建新字体风格的劳动,特别是对于包含多个字符的标识语言,例如中文(超过60K字符)、日语(超过50K字符)和韩语(超过11K字符),因为只需要手动设计几个参考图像。因此,字体生成在古籍古迹字体补全、个人字体生成等方面有着广泛的应用。
近年来,随着卷积神经网络[22]和生成对抗网络9的快速发展,先驱们在这方面取得了很大的进展,生成令人满意的