Deep Fingerprinting: Undermining Website FingerprintingDefenses with Deep Learning

2018  code

是否可以改进攻击以破坏新防御的有效性

针对 WTF-PAD 和 Walkie-Talkie 

深度学习

堆叠去噪自动编码器(SDAE)

一个简单的三层神经网络,包括输入、隐藏和输出层。向输入添加噪声,然后重建原始值。

卷积神经网络(CNN)

两个主要部分:特征提取分类

在特征提取中,输入首先被送入一个卷积层,该层由一组滤波器组成。输入的每个区域与每个滤波器进行卷积,主要是通过取两个向量的点积,得到一组中间值。这些值被输入激活函数--这类似于神经元根据过滤后的输入是否具有某些特征而被激活。拥有更多的滤波器意味着能从输入中提取更多的特征。然后,激活函数的输出被送入池化层。池化层逐步缩小特征图的空间大小,以减少参数数量和计算量。池化中最常用的方法是最大池化,即在特征图的特定区域内选择空间邻域中的最大值作为数据的表示。这种方法的优势在于,由于每个邻域中的最大信号都会被保留,因此不会受到输入中的微小变换、失真和平移的影响。特征提取组件的最后一部分主要由随机剔除函数和批量归一化组成,有助于提高分类器性能并防止过拟合。

然后,CNN 将卷积层和池化层的输出(代表输入的高级特征)传递到分类组件。在该组件中,一组全连接层利用这些特征对输入进行分类。在训练过程中,分类的损失值不仅用于更新分类组件中的权重,还用于更新特征提取中使用的过滤器。为了估计损失值,我们使用了分类交叉熵,它适用于 WF 等多类分类问题。

数据收集

tor-browser-crawler

实验评估

与AWF的差异

  • 卷积层数目增多
  • 过拟合不采用dropout而是采用最新过拟合争夺机制,包括在每个卷积层之后添加的批处理归一化(BN)层和激活函数之后的dropout层 
  • AWF超参数值固定,而DF改变不同层的超参数值
  • 激活功能。AWF只是用ReLU激活函数,但ReLU将所有负值映射为零;DF模型中用到ELU,可以学习包含负值的数据
  • 全连接层。AWF中直接将最后一个最大池化层链接到预测层,而DF中添加了两个结合BN和dropout的FC层,全连接(FC)层在分类提取中很重要,以防止FC层中通常发生的过拟合。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值