AI安全
文章平均质量分 89
暗紫色的乔松(-_^)
但行远方,莫问前程
展开
-
On the Robustness of Backdoor-based Watermarkingin Deep Neural Networks
通过使用这两种攻击中的任何一种,攻击者都可以从带有水印的模型中生成一个无水印的模型进行重新分发,而无需准备标记的训练数据,特别是在白盒攻击的情况下无需访问相同的计算资源。我们专注于基于后门的水印技术,并提出了两种简单而有效的攻击方法 - 一种是黑盒攻击,另一种是白盒攻击 - 可以在没有来自地面真相的标记数据的情况下去除这些水印。我们的白盒攻击在标记模型的参数可访问时提出了一种高效的水印去除方法,并将窃取模型的时间提高到从头开始训练模型的时间的二十倍。学到的模式和它们对应的预测将充当所有权验证的密钥。原创 2024-01-14 20:55:25 · 894 阅读 · 0 评论 -
Protecting Intellectual Property of Deep NeuralNetworks with Watermarking
保护深度神经网络的知识产权与数字水印技术ABSTRACT深度学习是当今人工智能服务的关键组成部分,在视觉分析、语音识别、自然语言处理等多个任务方面表现出色,为人类提供了接近人类水平的能力。构建一个生产级别的深度学习模型是一项非常复杂的任务,需要大量的训练数据、强大的计算资源和专业的人才。因此,非法复制、分发和派生专有的深度学习模型可能导致版权侵权,并对模型创建者造成经济损害。因此,有必要设计一种技术来保护深度学习模型的知识产权,并实现对模型所有权的外部验证。在本文中,我们将“数字水印”概念从多媒体所有权验证原创 2024-01-14 17:12:50 · 979 阅读 · 0 评论 -
Rethinking Deep Neural NetworkOwnership Verification: Embedding Passports toDefeat Ambiguity Attacks
然而,在实践中,这一要求通常无法满足,我们的实验结果显示,现有水印方法都无法处理本文中探讨的模糊攻击。在嵌入水印的深度学习方法方面,现有的方法可以广泛分为两类:a)基于特征的方法,通过引入额外的正则化项将指定的水印嵌入到DNN权重中;然而,我们的研究揭示了模糊攻击的存在性和有效性,这些攻击旨在通过为涉及的DNN模型伪造额外的水印来对所有权验证产生质疑(见图1)。提出的护照相对于传统水印具有独特的优势,即预训练的DNN模型的推断性能在存在有效护照的情况下将保持完好,或者在存在修改或伪造护照的情况下显著恶化。原创 2024-01-14 09:13:51 · 997 阅读 · 0 评论 -
Embedding Watermarks into Deep Neural Networks
最近在深度神经网络领域取得了显著的进展。分享深度神经网络的训练模型对于这些系统的快速研究课并发进展至关重要。与此同时,保护共享训练模型的权利也变得十分必要。为此我们提议使用数字水印技术来保护知识产权,并在使用训练模型时检测知识侵权行为。首先,我们提出了一个问题:将水印嵌入深度神经网络。其次,我们提出了一种通用得框架,通过使用参数正则化将水印嵌入参数模型。我们的方法不会损害嵌有水印得网络性能,因为水印实在训练主网络时嵌入的。原创 2024-01-12 13:52:19 · 656 阅读 · 0 评论