机器学习安全
学渣渣渣渣渣
我是菜
深度学习方向,欢迎交流~
展开
-
AI Security3-通用漏洞披露(CVE: Common Vulnerabilities and Exposures)
这是目录1 漏洞的来源2 漏洞分析2.1 数据来源2.2 数据分析3 举例回顾之前的内容逃逸攻击投毒攻击在前文中,我们介绍了Attack AI的基础概念,即黑客对AI发起的攻击,主要可以分为三种攻击类型,破坏模型完整性、可用性和机密性的攻击。在本文,我们将介绍破坏模型可用性的一些攻击示例。模型的可用性主要是指模型能够被正常使用。这一块的攻击面主要是算法系统依赖的底层框架、依赖库,攻击方式主要是对模型代码或底层依赖库的代码进行漏洞挖掘和利用,如溢出攻击、DDos攻击。由于在野0day的信息无法转载 2020-12-25 21:56:30 · 19003 阅读 · 0 评论 -
AI Security2-投毒攻击(Poisoning Attacks)
接着上一章写的:https://blog.csdn.net/weixin_42468475/article/details/111684668这是目录1 数据投毒攻击是什么?2 数据中毒的根本原因3 数据投毒攻击分类和解决方案3.1 模型偏斜(Model skewing)3.2 反馈武器化(Feedback weaponization):3.3 后门攻击(backdoor attacks)参考文献1 数据投毒攻击是什么?数据投毒/中毒攻击(Data Poisoning Attack)是什么?这里我们用转载 2020-12-25 20:28:24 · 25310 阅读 · 0 评论 -
机器学习里的攻击-躲避攻击(Evasion attacks)
目录需要保证其安全三要素(完整性Integrit、可用性Availability、机密性Confidentially)是安全的,如对于一个网络流量包——1.其必须是完整的,否则信息就没有意义了——完整性2.其必须可被接受者所获得和使用,否则这个包也没有意义了——可用性3.其只能让有权读到或更改的人读到和更改——机密性那么对于AI系统而言,我们同样可以从AI系统的三要素来进行考虑和分析。如下图所示——对于机器学习安全,我们主要讨论其完整性和机密性。AI的完整性主要是指模型学习和预测的过程完整不转载 2020-12-25 15:43:25 · 24985 阅读 · 4 评论