安全AI关键技术解析与实践

根据世界经济论坛发布的《2020年全球威胁分析报告》,数据欺诈和窃取、网络攻击已经成为影响全球的两大威胁因素。在享受信息化基础设施和信息化服务带来社会进步的同时,我们也面临着前所未有的信息安全挑战。

网络安全防护的新问题与新挑战

我们生活在物理世界不断向数字化转变的时代,网络带来社会经济生活繁荣和便捷,同时也见证了网络诈骗、数据盗窃、勒索攻击、基础设施故障带来的巨大损失和风险。基于以下原因,我们的网络安全防护在未来将面临着更多新问题和新挑战。

1. 网络攻击向商业化、专业化转变

2019年网络犯罪总收入约为1.28万亿美元。特别是以比特币为代表数字加密货币的出现,使得各种诈骗、勒索等违法所得可以轻松在网上完成支付转移闭环,而难以被追踪,大大加速商业化攻击进程,2020年上半年仅勒索病毒规模同比增长为26%。

2. 加密应用,加密流量越来越普遍

由于过往不重视个人和企业不注重隐私保护,使得公众正在饱受个人信息泄露导致推销、诈骗等各方面的困扰。同时,隐私信息泄露导致的恶性事件经自媒体不断发酵,正在逐渐唤醒用户对个人隐私保护的觉醒,未来加密应用、加密流量将成为主流。

3. 新型/未知应用将快速增长

据工信部统计,截至2020年9月末,我国国内市场上监测到的APP数量为349万款,其中,9月份新增上架APP 12万款。姑且不谈这些新型/未知应用潜在漏洞风险,单就及时对这些未知应用的流量行为检测、识别和管控都是巨大挑战,针对这些未知应用中0-day攻击则更加难以防范。

4. 新场景、新业务和新模式不断涌现

随着5G、云计算、区块链技术融合创新,当下,我们不仅经历着业务流程和模式的不断变迁,还会看到新场景、新业务、新模式的不断涌现,如何应对这种变化过程中安全威胁,给网络安全从业者不断创造新的挑战。

AI为应对新型安全威胁带来希望

网络安全领域的上述诸多挑战,给网络安全防护技术的未来蒙上了阴影。然而,在众多网络安全从业者的努力下,AI在网络安全领域的应用初步展现了强大力量。基于以下因素,我们认为AI技术将有效提升应对新型网络安全威胁的能力。

AI具备大数据分析挖掘的能力,能够有效果提升网络威胁的检测能力和水平。传统基于规则检测的方法不够灵敏,漏检和误检概率较高,通常检测完成后还需安全专家逐件分析;AI技术可将安全专家的知识经验固化到AI模型中,将上述两步检测分析法融合为一体,从而有效提升网络威胁检测能力和水平。

AI具备根据已知检测未知的能力,可有效解决现有检测方法和手段的适应性问题。当前网络威胁检测分析的困境莫过于检测方法和手段,通常我们会发现在一个环境下效果很好的方法和模型,在另一个环境下则表现得非常糟糕。AI技术为改变这一糟糕的现状提供了希望,通过AI技术可基于威胁自身特征进行模型构建,从而解决当前检测方法和手段在不同场景、不同网络软硬件环境下适用性问题。

AI具备自主学习和自我更新的能力,可有效解决现有模型老化问题。据统计每隔三到五年,网络流量数据成分就会发生显著变化。网络内容变化使得基于当下数据建立检测模型,随着时间演变不断老化,不再有效。AI记忆网络模型能够根据当前数据变化,不断学习调整模型参数,实现自我更新进化。

AI具备推理认知构建的能力,可从广泛的时空维度来对网络威胁进行分析溯源。在网络攻击商业化趋势下,一些攻击者采用极富耐心的APT(高级持续威胁)方式实施攻击。在这种情况下,如果单独看每一个孤立审计信息和检测记录可能都是合法合规,当将一系列的信息放在一起后,还是能够发现其中蛛丝马迹。概率图模型为APT检测提供潜在途径,通过概率图模型,可将分散在广泛的时空维度的数据信息进行关联分析和溯源。

安全AI技术创新实践

新华三安全持续推进安全AI技术创新,围绕智能、云化、协同、共生发布了主动安全2.0战略,推进新华三安全AI技术成果在各类软硬件产品全面落地实践,全面提升行业用户的安全体验。

图1 安全AI创新实践全栈图

AI硬件平台是新华三着力打造安全AI分析处理的载体,新华三安全发布了覆盖高、中、低端全系列安全AI业务板卡,并全面赋能新华三全系列AI防火墙。

高端AI板卡支持CPU、GPU多插卡弹性扩展,X86 CPU业务单板采用开放/可扩展设计思想,GPU板卡可兼容多个厂家的AI扩展卡,便于构建开放合作的智能安全生态系统。

中低端AI板卡采用X86 CPU+寒武纪AI芯片架构,结构更加紧凑,适配多种场景灵活部署,内置新一代DPI检测引擎和安全AI分析引擎。

图2 高端安全AI业务板卡

图3 中低端安全AI业务板卡

安全AI分析引擎是新华三开发的统一安全AI分析框架,内置各类标准的安全检测和分析模型,对外提供标准的数据和应用接口。

图4 安全AI分析引擎架构

基于上述安全AI硬件平台和安全AI分析引擎,新华三全面推进各类检测模型在AI防火墙、态势感知等新一代安全设备及软件平台创新实践。

1.基于AI的Web注入攻击检测

注入攻击是攻击者最常用的Web攻击手段之一。攻击者通过浏览器向服务器注入各种可以执行的命令,从而达到获取敏感数据、提权、反弹shell、安装后门等目的。为了检测各种Web注入攻击,我们根据注入指令的不同类型,实现了多种检测算法。针对浏览器的XSS攻击,先对每个供用户输入的“文本框”建立正常输入的画像,然后依据画像检测异常的用户输入;针对数据库服务器的SQLi攻击,采用语法分析技术对用户输入的SQL语句进行分析,然后采用规则和机器学习相结合的方法进行SQLi检测;针对Web服务器的攻击,采用特征向量提取和自然语言处理相结合的方法识别各种Webshell和OS注入攻击。

2.基于DNS协议的C&C外连检测

DNS协议是一种基础设施网络协议,常被攻击者用来进行C&C通信。为了躲避网络安全设备的监测和分析,攻击者使用DNS协议进行C&C通信时通常会使用Fast-flux和Domain-flux技术频繁变换DNS服务器的IP地址和域名。基于深度学习CNN检测网络流量中的C&C通信,通过优化可使得检测概率高达98%。

图5 DNS通道检测方法原理

3.基于AI的加密流量分析

为了保护用户的隐私和应用服务的安全,越来越多互联网应用采用加密协议进行数据传输。与此同时,攻击者也越来越倾向于使用加密协议进行通信,以便将攻击流量隐藏于正常的加密流量中,确保攻击行为可以正常实施。

在加密流量的分析过程中,我们将其分为加密应用识别和加密威胁检测,在加密应用识别中,提取加密协议的密钥交换阶段的密码套件、证书等明文特征,以及密文传输阶段的流量模式、通信模式、行为模式等统计特征,以及由RNN和CNN提取的时序特征和时空特征,采用有监督的机器学习方法进行加密应用识别。在加密威胁检测中,除了提取应用识别所需的各项特征外,还需要提取流量的上下文信息,包括https/http流量信息,DNS流量信息等。

图6 恶意加密流量识别方法原理

4.“云、网、边、端”协同联动

为了构建“云、网、边、端”联动的一体化安全防御体系,新华三AI防火墙与安全云、态势感知、边缘计算等系统相结合,实现情报共享、算力提升、关联分析、协同联动等功能。

AI防火墙与安全云平台协同联动。新华三AI防火墙大幅增强云端智能能力。通过云端威胁情况的共享、分析与服务,新华三AI防火墙可以共享所有来源的威胁情报,迅速响应各类漏洞和威胁,及时阻止各类攻击行为的传播。同时,新华三所有AI防火墙可以共享部署策略,通过云端的智能策略分析,可以为各行各业的客户提供最优部署策略推荐,大大简化部署和运维。除此之外,本地防火墙将潜在威胁数据上传至云端,通过云端大数据分析,获取机器学习模型,再将模型参数下放到本地进行本地智能检测分析,实现云端一体化智能联动。

图7 云端能力感知结构

AI防火墙与态势感知系统协同联动。为了满足多方面、多维度的安全检测需求,根据业务场景在弹性智能硬件架构支持下,将机器学习引入多业务感知引擎,可以对海量的安全信息进行自动分析与深度挖掘,不同业务引擎间可模块化组合,协同完成终端可信接入、用户异常行为检测、恶意应用软件检测、加密流量免解密识别、应用流量内容识别等智能感知功能。

图8 “云-网-边-端”协同联动体系结构图

安全AI技术发展展望

安全AI大门已经开启,未来安全AI技术将在以下几个方面持续进化:

1. 安全知识图谱

知识谱图由于具有良好的可解释性,可以基于安全设备产生的安全事件,构建威胁知识图谱,从而分析网络的整体威胁态势;在EDR中,可以基于终端的行为和操作日志,构建溯源知识图谱,从而分析终端的已知和未知威胁;在NDR/UEBA中,可以基于网络全流量数据和应用系统日志,构建用户行为知识图谱,从而检测用户的可疑或者恶意行为。

2. 未知威胁检测

未知威胁检测一直是网络安全领域的重点和难点,AI技术的发展给未知威胁检测带来了机遇。在基于EDR的溯源图中,可以对终端、应用的正常运行过程建模,通过异常检的方法测识别出终端和应用的未知威胁;在远程漏洞利用中,可以对流量中包含的恶意Shellcode进行检测,从而检测未知的漏洞利用过程;在Web应用中,可以对Web服务的业务建模,也可以对用户的行为建模,采用异常检测的方法识别未知的Web威胁。

3. 混淆对抗

注入攻击和恶意代码可以通过混淆、编码、压缩等方式改变自己的表现形式,从而躲过WAF、IPS、病毒检测引擎等设备的检测。复杂的混淆方法是单向的,虽然混淆的代码和原始的代码执行相同的功能,但是却无法完全还原为原始的代码,只能部分还原为原始的代码。因此,在混淆恶意代码的检测中,可以利用AI算法将混淆代码进行还原,然后进行恶意代码检测,其中对原始代码的还原程度将决定着恶意代码的检测效果。

4. 联邦学习

在安全领域,有标注的数据非常少,并且各个企业之间的数据也没有共享,这使得AI模型的效果难以得到实质的提升。联邦学习为解决该问题提供了很好的思路和方法。通过采用联邦学习架构,可以将多个企业的数据联合起来训练一个更加强大的模型;在模型的训练过程中,可以采用同态加密、差分隐私等隐私保护技术对网络中传输的数据或者模型参数进行保护,从而保证每个企业内部的数据都不会泄露出去。

观点

我们正面临着这样一个网络世界,漏洞不仅是普遍存在的,也是越来越多的;攻击不仅是不可避免的,也是越来越隐蔽的。仅仅靠增加安全设备和人员投入不仅成本难以接受,也不足以应对新型威胁。唯有从安全体系建设角度,全面推进单个安全设备智能化、全体安全设备协同化,形成智能分析感知威胁、智能自动防护、智能闭环管理的体系化安全能力,才足够应对当下网络安全形势。

人工智能安全 现在有很多技术可以欺骗人工智能, 也有很多人工智能技术被用来欺 骗人。在人工智能AI)时代,安全问题不容忽视。 近几年,人工智能技术在很多领域都取得了初步的成功,无论是图像 分类、视频监控领域的目标跟踪,还是自动驾驶、人脸识别、围棋等 方面, 都取得了非常好的进展。 那么, 人工智能技术到底安全安全? 事实上,目前的人工智能技术还存在很多问题。 人工智能并不安全 现在有很多技术可以欺骗人工智能,如在图片上加入一些对抗干扰。 所谓对抗干扰,就是针对智能判别式模型的缺陷,设计算法精心构造 与正常样本差异极小、能使模型错误识别的样本。如图 1 所示,本来 是一幅手枪的图片, 如果加入一些对抗干扰, 识别结果就会产生错误, 模型会识别为不是枪。在人的前面挂一块具有特定图案的牌子,就能 使人在视频监控系统中"隐身"(见图 2)。在自动驾驶场景下,如果 对限速标识牌加一些扰动,就可以误导自动驾驶系统识别成 "Stop"(见图 3),显然这在交通上会引起很大的安全隐患。另一方 面,人工智能的一些技术现在正在被滥用来欺骗人。例如,利用人工 智能生成虚假内容,包括换脸视频、虚假新闻、虚假人脸、虚拟社交 账户等。 图 1 被暴恐检测系统识别成正常图片 图 2 在智能监控下隐身 图 3 误导自动驾驶系统 不只在图片和视频领域,在语音识别领域也存在这样的安全隐患。例 如,在语音中任意加入非常微小的干扰,语音识别系统也可能会把这 段语音识别错。同样,在文本识别领域,只需要改变一个字母就可以 使文本内容被错误分类。 除了对抗攻击这种攻击类型外,还有一种叫后门攻击的攻击类型。后 门攻击是指向智能识别系统的训练数据安插后门, 使其对特定信号敏 感,并诱导其产生攻击者指定的错误行为。例如,我们在对机器进行 训练时,在某一类的某些样本中插入一个后门模式,如给人的图像加 上特定的眼镜作为后门, 用一些训练上的技巧让机器人学习到眼镜与 某个判断结果(如特定的一个名人)的关联。训练结束后,这个模型针 对这样一个人还是能够做出正确的识别, 但如果输入另一个人的图片, 让他戴上特定的眼镜,他就会被识别成前面那个人。训练的时候,模 型里留了一个后门,这同样也是安全隐患。 除了对抗样本、后门外,如果 AI 技术被滥用,还可能会形成一些新 的安全隐患。例如,生成假的内容,但这不全都是人工智能生成的, 也有人为生成的。此前,《深圳特区报》报道了深圳最美女孩给残疾 乞丐喂饭,感动路人,人民网、新华社各大媒体都有报道。后来,人 们深入挖掘,发现这个新闻是人为制造的。现在社交网络上有很多这 样的例子,很多所谓的新闻其实是不真实的。一方面,人工智能可以 发挥重要作用,可以检测新闻的真假;另一方面,人工智能也可以用 来生成虚假内容,用智能算法生成一个根本不存在的人脸。 用人工智能技术生成虚假视频, 尤其是使用视频换脸生成某个特定人 的视频,有可能对社会稳定甚至国家安全造成威胁。例如,模仿领导 人讲话可能就会欺骗社会大众。因此,生成技术是否需要一些鉴别手 段或者相应的管理规范,这也是亟须探讨的。例如,生成虚假人脸, 建立虚假的社交账户,让它与很多真实的人建立关联关系,甚至形成 一些自动对话,看起来好像是一个真实人的账号,实际上完全是虚拟 生成的。这样的情况该如何管理还需要我们进一步探索和研究。 人工智能安全隐患的技术剖析 针对 AI安全隐患,要找到防御的方法,首先要了解产生安全隐患 的技术。以对抗样本生成为例,其主要分为 2 类:一类是白盒场景下 对抗样本生成;另一类为黑盒场景下对抗样本生成。白盒场景的模型 参数完全已知,可以访问模型中所有的参数,这个情况下攻击就会变 得相对容易一些,只需要评估信息变化的方向对模型输出的影响,找 到灵敏度最高的方向,相应地做出一些扰动干扰,就可以完成对模型 的攻击。黑盒场景下攻击则相对较难,大部分实际情况下都是黑盒场 景,我们依然可以对模型远程访问,输入样本,拿到检测结果,但无 法获得模型里的参数。 现阶段的黑盒攻击可大致分为 3 类。 第一类是基于迁移性的攻击方法, 攻击者可以利用目标模型的输入信息和输出信息, 训练出一个替换模 型模拟目标模型的决策边界, 并在替换模型中利用白盒攻击方法生成 对抗样本,最后利用对抗样本的迁移性完成对目标模型的攻击。第二 类是基于梯度估计的攻击方法, 攻击者可以利用有限差分以及自然进 化策略等方式来估计梯度信息, 同时结合白盒攻击方法生成对抗样本。 在自然进化策略中, 攻击者可以以多个随机分布的单位向量作为搜索 方向,并在这些搜索方向下最大化对抗目标的期望值。第三类是基于 决策边界的攻击方法,通过启发式搜索策略搜索决策边界,再沿决策 边界不断搜索距离原样本更近的对抗样本。 有攻击就有防御,针对对抗样本的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值