![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Model Stealing
文章平均质量分 92
LWT9836
学生党,入坑程序员
展开
-
Protecting Intellectual Property of Deep Neural Networks with Watermarking研读报告
摘要:作为最先进的人工智能服务的关键组成部分,深度学习技术已经在为各种技术提供人类水平的能力方面取得了巨大的成功。例如,视觉分析、语音识别和自然语言处理等等。构建一个生产级别的深度学习模型并不是一件易事,其需要大量的训练数据、强大的计算资源以及专家经验。因此,非法复制、传播和衍生专有深度学习模型会对造成模型创建者的版权侵犯和经济损失。因此,设计一种技术来保护深度学习模型的知识产权,并使模型所有权能够得到外部验证是非常必要的。 在本文中,我们将多媒体所有权验证所采用的“数字水印”概念引入到深度神经网络模型原创 2021-09-01 22:49:29 · 1172 阅读 · 2 评论 -
Stealing Machine Learning Models via Prediction APIs研读报告
机器学习(ML)模型可能因其敏感的训练数据、商业价值或在安全应用中的应用而被视为机密。越来越多的情况是,机器学习(ML)模型使用公开可访问的查询接口部署。机器学习即服务系统就是一个例子:这些系统允许用户使用潜在敏感数据对模型进行训练,并向其他用户收取按查询付费的访问费用。 模型机密性和公共访问之间的紧张关系激发了人们对模型窃取攻击的研究。在这种攻击中,一个拥有黑箱访问权限但却不知道机器学习模型的参数或训练数据等先验知识的对手,旨在复制(即“窃取”)模型的功能。与经典学习理论设置不同,机器学习即服务提供可原创 2021-08-24 14:16:23 · 1939 阅读 · 2 评论