人工智能安全
文章平均质量分 79
利用机器学习的方法去解决网络安全的一些问题
HenrySmale
张恒汝,博士,西南石油大学教授,硕士生导师,机器学习研究中心副主任,四川省学术和技术带头人后备人选,四川省通信管理局工业互联网领域入库专家,教育部产学合作协同育人项目入库专家,CCF、ACM会员,CAAI粒计算与知识发现专委会委员。
展开
-
人工智能安全-6-SQL注入检测
SQLIA:SQL injection attack SQL 注入攻击是一个简单且被广泛理解的技术,它把 SQL 查询片段插入到 GET 或 POST 参数里提交到网络应用。由于SQL数据库在Web应用中的普遍性,使得SQL攻击在很多网站上都可以进行。并且这种攻击技术的难度不高,但攻击变换手段众多,危害性大,使得它成为网络安全中比较棘手的安全问题。原创 2023-09-15 18:05:59 · 1742 阅读 · 0 评论 -
人工智能安全-5-网络入侵检测
入侵检测是网络安全中的经典问题,入侵是指攻击者违反系统安全策略,试图破坏计算资源的完整性、机密性或可用性的任何行为。不管是哪种类型的入侵检测系统(IDS),其工作过程大体是相同的,可以分为三个主要的环节,即信息收集、分类检测和决策,其中,分类检测和决策环节是IDS的关键,都需要一定的人工智能技术来支持。IDS有多种不同的划分方法,可以根据信息来源、检测方法、体系结构进行分类。基于主机IDS;基于网络的IDS;混合IDS。异常检测;误用检测;集中式IDS;分布式IDS。原创 2023-09-15 17:44:14 · 1073 阅读 · 0 评论 -
人工智能安全-4-小样本问题
在小样本监督分类中,通常将问题表述为 N-way-K-shot分类,(1) 近似正确:存在一个很小的数。(2) 可能正确:给定一个值。这两个常量可以理解为,足够大或者假设空间的大小。发生的可能性就比较大。原创 2023-09-11 17:47:11 · 417 阅读 · 0 评论 -
人工智能安全-3-噪声数据处理
属性噪声:样本中某个属性的值存在噪声标签噪声:样本归属类别关于噪声分布的假设:均匀分布、高斯分布、泊松分布等。标签噪声的产生原因:(1)特定类别的影响,在给定的标注任务中,各个类别样本之间的区分度不同,有的类别与其他类别都比较相似,就会导致这类样本标注错误率高。(2)标注人为的因素。(3)少数类的标注更容易错误。(4)训练数据受到了恶意投毒,当在对抗环境下应用机器学习模型时,攻击者往往会通过一些途径向数据中注入恶意样本,扰乱分类器的性能。标签噪声比属性噪声更重要数据利用率。原创 2023-08-01 18:14:10 · 1235 阅读 · 0 评论 -
人工智能安全-2-非平衡数据处理(2)
代价敏感:设置损失函数的权重,使得少数类判别错误的损失大于多数类判别错误的损失;单类分类器方法:仅对少数类进行训练,例如运用SVM算法;集成学习方法:即多个分类器,然后利用投票或者组合得到结果。原创 2023-09-21 10:27:01 · 542 阅读 · 0 评论 -
人工智能安全-2-非平衡数据处理(1)
在DANGER数据集中的点不仅从S集中求最近邻并生成新的少数类点,同时也在L数据集中求最近邻,并生成新的少数类点。虽然采样方法在一些数据集上取得了不错的效果,但欠采样容易剔除重要样本,过采样容易导致过学习,因此,采样方法调整非平衡数据的学习能力十分有限。如果有两个不同类别的样本,它们的最近邻都是对方,也就是A的最近邻是B,B的最近邻是A,那么A,B就是Tomek link。NearMiss-3倾向于在比较集中的少数类附近找到更多的多数类样本,而在离群的少数类附近找到更少的多数类样本。原创 2023-07-30 11:28:43 · 1423 阅读 · 0 评论 -
人工智能安全-1-概述
提纲什么是人工智能安全人工智能及其安全问题的出现人工智能安全的层次结构人工智能的脆弱性人工智能安全的基本属性人工智能安全的技术体系人工智能安全的数学基础人工智能安全的法律规范原创 2023-07-24 11:31:26 · 1151 阅读 · 0 评论 -
《人工智能安全》课程总体结构
人工智能安全》(清华大学出版社,2022)复旦大学曾剑平。原创 2023-07-24 11:26:33 · 1184 阅读 · 0 评论 -
对抗攻击(2)
本文将介绍一些经典的对抗攻击算法,未完待续…原创 2021-12-22 17:33:06 · 158 阅读 · 0 评论 -
对抗攻击(1)
本文是根据李宏毅老师在B站上的视频整理而来,视频地址为:https://www.bilibili.com/video/BV1n3411y7xD?p=651 无目标和有目标攻击的区别无目标攻击:攻击后的标签不确定,只要是和原始标签差别越大越好。有目标攻击:攻击后的标签是确定的某一个类别,并且要求和原始标签越大越好。...原创 2021-12-19 21:10:18 · 700 阅读 · 0 评论 -
Membership Inference Attacks Against Recommender Systems论文解读
0 摘要1 引言原创 2021-11-22 09:19:04 · 2099 阅读 · 0 评论 -
Data Poisoning Attacks to Deep Learning Based Recommender Systems论文解读
1 摘要在这项工作中,作者对基于深度学习的推荐系统的数据中毒攻击进行了首次系统研究。攻击者的目标是操纵推荐系统,以便向许多用户推荐攻击者选择的目标项目。为了实现这一目标,作者将精心设计的评分注入到推荐系统中的假用户。具体来说,作者将攻击表述为一个优化问题,这样注入的评分将最大化推荐目标项目的普通用户的数量。然而,解决优化问题具有挑战性,因为它是一个非凸整数规划问题。为了应对这一挑战,作者开发了多种技术来近似解决优化问题。作者在三个真实世界数据集(包括小型和大型数据集)上的实验结果表明,作者的攻击是有效的,原创 2021-11-17 15:50:33 · 1750 阅读 · 2 评论 -
以毒攻毒Fight Fire with Fire: Towards Robust Recommender Systems via Adversarial Poisoning Training论文解读
1 摘要最近的研究表明,推荐系统是脆弱的,攻击者很容易将精心设计的恶意配置文件注入系统,从而导致有偏见的推荐。我们不能否认这些数据的合理性,因此建立一个强大的推荐系统势在必行。对抗性训练已被广泛研究以获得可靠的建议。然而,传统的对抗训练给参数(输入)增加了小的扰动,这不符合推荐系统中的中毒机制。因此,对于非常擅长学习现有数据的实用模型,它的表现并不好。为了解决上述限制,我们提出了对抗性中毒训练(APT)。它通过注入虚假用户(ERM 用户)来模拟中毒过程,这些虚假用户致力于最小化经验风险以构建一个强大的系统原创 2021-11-13 21:18:11 · 2432 阅读 · 0 评论 -
New directions in automated traffic analysis论文解读
1 论文主要idea完整性:没有进行特征提取,保留原始数据包;固定大小:对不同类型的数据包进行统一格式编码,使得编码后的向量大小一致(见图3)将一些与目标任务不一致的字段去掉,如操作系统指纹识别,就把IP源地址、目的地址、TCP源端口、目的端口等字段去掉。2 我们的想法操作系统指纹识别字段有效性分析:仔细研究操作系统指纹识别数据集的数据特征,分析哪些字段对操作系统指纹识别有效?去掉无效字段后如何保证固定大小?可否借鉴图像处理的方法,将最终编码处理为图像形式,利用图像识别算法来提高指原创 2021-10-25 18:02:29 · 559 阅读 · 4 评论