人工智能安全
文章平均质量分 86
boyinan
这个作者很懒,什么都没留下…
展开
-
第七章 机器学习系统的攻击者
按照大类来分,例如监督学习,无监督学习,强化学习,深度学习等;机器学习模型:可以是有监督的分类器,也可以是无监督的聚类算法等,模型的参数、结构也都属于这种知识。特征选择算法:即从原始数据到数据特征之间的映射方法,通常包括信息增益、卡方统计等特征选择算法;攻击者的攻击能达到怎样的程度取决于两个方面,一是掌握的知识,二是攻击者自身的能力。原始数据:即还没有经过处理的训练数据集;特征提取方法:包括SVD分解、各种用于特征抽取的深度学习模型等;样本特征:即经过特征处理完之后,最终用于分类器训练的属性集合;原创 2023-08-21 19:38:04 · 102 阅读 · 1 评论 -
第六章 攻击与防御的智能技术
攻击者对目标进行攻击的时候通过从网络的某个节点开始,利用网络的漏洞获取到某些节点的权限,然后向其他节点进行扩散,进而获取整个主机的权限。由于网络拓扑是网状的,因此可以使用图来描述节点与攻击的路径,攻击图模型将抽象出的网络拓扑结构用有向无环图表示,并标示出攻击者对该网络进行攻击可能采用的方法。攻击图模型将抽象出的网络拓扑结构用有向无环图表示出来,并标示出攻击者对该网络进攻可能采用的方法,路径以及攻击造成的后果。原创 2023-08-21 19:37:32 · 205 阅读 · 1 评论 -
第五章 基于机器学习的安全检测
入侵检测系统IDS是网络安全设备,对入侵行为实时监控,在必要时发出警告或者采取防御措施,切断入侵者的网络访问。IDS根据信息来源分类:基于主机的IDS,基于网络的IDS,混合型IDS;根据检测方法分类:异常检测,误用检测;根据体系结构分类:集中式IDS,分布式IDS。异常检测:先建立正常行为的特征轮廓和模式表示,检测时候将具体行为和正常行为比较,漏报率低,误报率高;误用检测:事先构造异常操作的行为特征,检测到用户行为与特征匹配时判定为入侵行为,误报率低,漏报率高;原创 2023-08-21 19:36:05 · 141 阅读 · 1 评论 -
第四章 小样本学习方法
在目标任务之外要增加两个源任务作为先验知识,深度学习模型具有层次结构更容易感知各层之间的深度特征,因此把底层的共性通用层参数在不同任务之间共享,与任务相关的高层特征在各自任务中单独处理,在深度学习模型中,多任务之间共享底层的隐藏层,然后针对设计不同的高层神经网络来解决各自的任务。首先经过LSTM的隐单元获取语义信息,分别进行两个任务的学习,①最大池化获取与属性无关的表示,②注意力机制获取能表达各个属性的语义特征,③softmax分类,把属性相关的语义特征与属性无关的语义特征进行拼接,④进行罪名预测。原创 2023-08-21 19:34:16 · 512 阅读 · 1 评论 -
第三章 噪声数据处理
(算法的具体过程 原理:正确的时候权重占比小,错误的时候权重占比大,在下一轮的迭代中会受到重视。数据清洗对于离群点的噪声的合适的但是有些噪声和错分样本没有明显差异,特别是分类边界的样本,因此引入了主动学习框架,其通过迭代抽样的方式将特定的样本挑选出来交给专家人工判断。两种算法的关键都在于基于池的样本选择算法,有基于不确定性采样的查询方式,基于委员会的查询方式,基于密度权重的查询方式。查询:一部分样本来自于样例选择算法训练好的模型中的数据,另一部分来自于标注数据,选择后确认的样本加入训练数据集。原创 2023-08-21 19:31:54 · 415 阅读 · 1 评论 -
第二章 非平衡数据分类
基于密度的轮廓就是该样本的密度轮廓,在概率计算的基础上结合给定的阈值即可判别,训练的维数较低且训练样本较多时基于密度的单类分类器方法很有效。代价敏感合页损失函数支持向量机(CSHL-SVM)扩展了SVM中的和也损失函数,推导出最小化关联风险的代价敏感学习算法。利用贝叶斯理论根据代价最优分类对训练集中每个样本的类别重新标记,在标记后的数据集上训练新的分类器,具有代价敏感的分类能力。表示将i类数据错误分给j类所受到的代价,并规定错误分类的代价大于正确分类的代价,少数类的错分代价大于多数类的错分代价。原创 2023-08-21 19:29:54 · 191 阅读 · 1 评论 -
第一章 人工智能安全概述
目前并没有统一的定义,人工智能安全是人工智能与网络安全的交叉学科,两个学科已经建立了深厚的理论和技术体系,进一步看清两个学科的交叉点的逻辑关系是理解人工智能安全的关键。攻击与防御对于防御者而言,使用人工智能新技术加强网络空间安全技术;对于攻击者而言,引入人工智能方法提高攻击的效率和效果。知识与模型信息和数据促成了人工智能方法,然后通过人工智能方法要实现知识的挖掘、分析和表示,知识位于更高的层次体现在语义特征方面,知识具有更强的蕴含表达能力。漏洞与利用。原创 2023-08-21 19:26:45 · 1545 阅读 · 1 评论