藏图
没有cover,直接在secret图像上改
缺点:
只能修改单个主题,不能修改全局内容,
只能隐藏一张图,容量小
摘要
扩散模型的两个特性,即无需训练就能在两幅图像之间实现转换的能力,以及对噪声数据的鲁棒性,可以用来提高图像隐写任务的安全性和自然鲁棒性。
基于条件扩散模型Stable diffusion
利用了开源社区的最新工具,如LoRAs和ControlNets提高容器图像的可控性和多样性。
1 介绍
目前的无载体隐写方法经常采用CyclyGAN和encoder-decoder模型,利用循环一致性原则。但是生成的stego从生成模型中随机采样,可控性有限;此外,现有方法容量小,只能隐藏比特,不能隐藏图像。
扩散模型的特性:零样本学习,对生成过程的强控制,噪声鲁棒性,img2img。
2 相关工作
基于载体的隐写
传统的基于空间域的方法[22,39,41,44]利用最低有效位(LSB)、像素值差分(PVD)[41]、直方图平移[58]、多位平面[39]和调色板[22,40]来隐藏图像,可能会产生统计学怀疑,容易受到隐写分析方法的攻击。
自适应方法[43,29]将隐写分解为嵌入失真最小化和数据编码两部分,外观不可区分但容量有限。
各种基于变换的方案[10,25]包括JSteg[44]和DCT隐写[19]也不能提供高的负载容量。
无载体隐写
不改变载体的情况下通过映射来隐藏秘密信息,容量小
Diffusion Models
LoRAs通过有效地以低秩方式修改某些网络参数来实现控制,而ControlNets通过引入一个额外的网络来修改稳定扩散的中间特征来实现控制。
3 方法
将图像隐写任务定义为由三幅图像和两个进程组成(三幅图像分别是秘密图像xsec、容器图像xcont和暴露图像xrev,两个进程分别是隐藏过程和暴露过程。
1)安全性:即使容器映像xcont被其他接收方截获,隐藏的秘密imagexsec也不会泄露。
2)可控性:容器图像xcont中的内容可以被用户控制,视觉质量高。
3)鲁棒性:即使x 'cont与xcont存在偏差(x 'cont = d(xcont), d(·)表示退化过程),揭示过程仍然可以生成语义一致的结果(xrev≈xsec)。
无载体图像隐写面临的一个关键挑战是能否从变换后的图像中还原出原始图像。可以使用DDIM反演(如第(b)部分所示,利用DDIM实现图像到潜在噪声并返回原始图像的转换过程。)来实现图像分布和噪声分布之间的双向平移,允许可逆的图像平移
3.2 使用DM模型实现可逆图像转换
一个完整的扩散模型过程包括两个阶段:前向阶段为干净的图像添加噪声,后向采样阶段逐步对图像进行去噪。
我们使用正向过程(等式1)向猫图像添加噪声以获得中间噪声,然后通过输入一个条件(prompt= " tiger ")来控制反向采样过程(等式2)免受噪声,从而得到一个新的老虎图像。
由于前向和后向过程的轨迹相似,因此输入和输出图像非常接近,中间噪声xT可以认为是反演的潜变量。
该框架能够根据用户提供的“Prompt2”有效地将秘密图像隐藏在容器图像中,没有明显的伪影或不真实的图像细节。
利用Prompt1提取出的秘密图像具有较好的保真度,准确地保留了秘密图像的语义信息。