什么是黑盒攻击?
黑盒攻击是指攻击者对目标模型缺乏完全的内部信息和访问权限,只能通过输入和输出来观察模型的行为。攻击者无法获取目标模型的结构、参数、算法等详细信息。在黑盒攻击中,攻击者通常通过试探和分析来推断模型的行为,并生成特定的输入以欺骗或破坏目标模型。
黑盒攻击可以分为基于查询的攻击和基于迁移的攻击:
first::基于查询的攻击:攻击者通过向目标模型发送特定的查询样本,并观察模型的输出,通过分析不同查询样本和输出之间的关联关系,推断模型的性质和脆弱点,从而生成有效的攻击样本。
(但是在实际中许多目标模型并不允许查询,或者只能进行有限的查询。eg.1.当你放入大批样本进入查询,这时候目标模型会禁止你的查询。而小量样本查询只能得到很少很少的结果。2.相对来说,查询比较消耗成本。)
second:基于迁移的攻击:攻击者利用已有知识、数据或模型,将这些信息迁移到目标模型上,以推断目标模型的行为并进行攻击。通过迁移学习、模型迁移或特征迁移等技术,攻击者可以对目标模型进行攻击,即使对目标模型的内部信息一无所知。