【2023】网络安全学术顶会的小记录

查找了网上一些资料,对2023网安顶会做一个简单(真的是简单!)的记录。
主要参考的公众号:漏洞战争

一、 CCS '22

(一)热门研究方向

  1. 机密计算。关注如何在不泄密的情况下有效地计算敏感数据,例如安全多方计算和同态加密。
  2. 区块链安全。研究如何提高区块链的安全性和性能,例如自适应安全性证明、更高并发和更快的交易。
  3. 机器学习隐私。关注如何在保护数据隐私的同时利用机器学习分析数据,例如通过差分私有化。

(二)研究方向建议

  1. 量子安全。量子计算提升后,现有密码学可能面临被破解的可能。
  2. 物联网安全。随着IoT设备的日益增长,需要开发新的解决方案来保护它们。
  3. 人工智能安全。AI模型的学习过程及其在生产环境中的使用应当更加私密。

总的来说,隐私保护和安全计算技术仍将是网络安全研究的主要方向。同时,面对量子计算的挑战,研究人员需要探索更安全的算法和协议。

(三)一些小小的相关基础知识

(碰到看不明白的就记录下来了啦!)

1. 同态加密

1.1 概念:
同态加密(Homomorphic Encryption, HE)是一种特殊的加密方式,它允许我们在密文状态下进行计算,并且在计算前不需要解密。这种加密方式在保护数据隐私的同时,也能够方便地进行数据处理和计算。
举个栗子,帮助理解!例子原文链接


有个Alice买到了一大块金子,她想让工人把这块金子打造成一个金项链。但是工人在打造的过程中有可能会偷金子啊,毕竟就是一克金子也值很多钱的说… 因此能不能有一种方法,让工人可以对金块进行加工,但是不能得到任何金子?
在这里插入图片描述
当然有办法啦,Alice可以这么做:
Alice将金子锁在一个密闭的盒子里面,同时给这个盒子安装了一个手套。 工人可以带着这个手套,对盒子内部的金子进行处理。但是盒子是锁着的,所以工人不仅拿不到金块,连处理过程中掉下的任何金子都拿不到。 加工完成后,Alice拿回盒子,把锁打开,就得到了金项链。
在这个例子中:
盒子:加密算法
盒子上的锁:密钥
将金块放在盒子里并用锁锁上:将数据用同态加密方案进行加密
加工:利用同态特性,在无法取得数据的条件下直接对加密结果进行处理
开锁:对结果进行解密,直接得到处理后的结果

1.2 应用
同态加密的应用非常广泛,例如在云计算中,用户可以将数据加密后上传到云端进行处理,云端虽然无法解密数据,但可以使用同态加密技术进行计算并返回结果,从而保护了用户的隐私。

参考链接

2. 安全多方计算

定义:
安全多方计算(Secure Multi-Party Computation,SMPC)用于解决一组互不信任的参与方各自持有秘密数据,协同计算一个既定函数的问题。安全多方计算在保证参与方获得正确计算结果的同时,无法获得计算结果之外的任何信息。在整个计算过程中,参与方对其所拥有的数据始终拥有绝对的控制权。

举例来说,在一个分布式网络中,有n个互不信任的参与方P1,P2,…,Pn,每个参与方Pi持有秘密数据Xi(i=1,2,3,…,n)。这n个参与方协同执行既定函数,f(x1,x2,…,xn) -> (y1,y2,…,yn),其中yi为参与方Pi得到的输出结果。任意参与方Pi除yi之外无法获得关于其他参与方Pj(i !=j)的任何输入信息。如果y1 = y2 = … =yn,则可以简单表示为f:(x1,x2,…,xn) -> y。
原文链接

二、S&P '22

(一)热门研究领域

  1. 对抗样本研究。众多论文针对对抗样本进行分析、建模和提出新的机制。
  2. 隐私保护联邦学习。研究如何在保护隐私的前提下实施联邦学习。
  3. 浏览器安全。包括指纹识别、网站选择标志和端到端加密等方面。

(二)未来值得研究的方向

  1. 通过零知识证明和混合加密提高安全系统的可验证性。
  2. 面向非技术专业人员提高安全意识并提供个性化的解决方案。
  3. 建模和理论化网络安全问题以提供完整和有力的证明。

(三)一些小小的相关基础知识

1. 对抗样本

1.1 定义

对抗样本:是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。

1.2 对抗样本攻击
主要通过在干净样本中添加人们难以察觉的细微干扰,使得正常训练的深度学习模型输出置信度很高的错误预测。
对抗样本攻击的核心在于如何构造细微的干扰。
举个栗子!


针对一张已经正确分类的图片,对其进行细微的像素修改,可以将其错分为其他label。

样本x的label为熊猫,在对x添加部分干扰后,在人眼中仍然分为熊猫,但对深度模型,却将其错分为长臂猿,并且给出了高达99.3%的置信度。

例子原文链接


参考链接

2. 联邦学习

2.1 定义
联邦学习,也称为协同学习,它可以在产生数据的设备上进行大规模的训练,并且这些敏感数据保留在数据所有者那里,本地收集、本地训练。在本地训练后,中央的训练协调器通过获取分布模型的更新获得每个节点的训练贡献,但是不访问实际的敏感数据。
在这里插入图片描述
在典型的联邦学习方案中,中央服务器将模型参数发送到各节点(也称为客户端、终端或者工作器),节点针对本地数据做一些训练初始模型,并将新训练的权重发回给中央服务器,中央服务器对新模型参数求平均值(通常与在每个节点上执行的训练量有关)。
在这种情况下,中央服务器或其他节点永远不会直接看到任何一个其他节点上的数据,并使用安全聚合等附加技术进一步增强隐私。

2.2 联邦学习与隐私保护
联邦学习的目标是解决数据的协作和隐私保护的问题。

联邦学习介绍
联邦学习详解以及示例代码

3. 零知识证明

3.1 定义
零知识证明(Zero—Knowledge Proo,ZKP)指的是证明者能够在不向验证者提供任何有用信息的情况下,使验证者相信某个论断是正确的。

举个栗子!


假设有一个洞穴,这个洞穴只有一个入口,但有两条路径(A和B),A和B连接在一个被密码锁定的公共门上。Alice想向Bob证明她知道门的密码,但是又不想向Bob透露门的密码。为此,Alice是这么做的!
Alice进入洞穴入口,走两条路中的一条,Bob不知道Alice走了哪条路,但随机指定Alice走两条路中的一条回到洞穴的入口。如果Alice最初选择走A到门口,Bob又要求她走路径B回来,那么完成拼图的唯一方法就是Alice知道门的密码。这个过程可以重复多次,以证明Alice知道门的密码,并且没有碰巧选择正确的路径。
在这里插入图片描述
完成这个过程后,Bob高度确信Alice知道门的密码,并且Alice也没有透露密码的信息。

三、NDSS 2023

(一)热门研究方向

  1. 后门攻击检测与防御:有多篇研究探讨了如何检测和抵御针对机器学习模型的插入后门的攻击。
  2. 浏览器安全:许多研究关注了浏览器功能、设置等影响用户隐私以及如何提高浏览器安全性。
  3. 智能合约安全:与以太坊智能合约相关的攻击检测、迁移学习、缓存等方法得到广泛探讨。

(二)未来趋势

  1. 攻守平衡:安全防御措施与攻击手段之间将保持不断地博弈。
  2. AI安全:机器学习等AI技术的广泛应用同时也带来新的安全挑战。
  3. 多边安全:不同组织之间攻击面和相互依赖性不断增加。

四、USENIX Security '23

(一)热门研究方向

  1. 攻击与防御。大约有30篇论文涉及系统、网络和机器学习模型的各类攻击与防御,包括侧信道攻击、模糊测试技术、认证和授权攻击、隐私攻击与防御等。
  2. 自动化技术。大约有25篇论文提出各种自动化技术来发现漏洞、生成测试用例、分析协议等,包括模糊测试、静态、动态分析、机器学习等。
  3. 隐私保护和安全加强。大约有15篇论文探讨提升隐私的技术、物联网设备的透明度、数据最小化等。
  4. 机器学习安全。

(二)未来趋势

展望未来,预测物联网、边缘计算、区块链、5G等新兴技术的安全将变得更加重要。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值