前言
最近在看一篇有关TLS1.3全球部署研究的文章:
Tracking the deployment of TLS 1.3 on the Web: A story of experimentation and centralization
我是先看了最先发出来的版本,然后又看的这个,还是有些差异的,不过基本内容是差不多的,我想记录下,或者说总结下这篇文章所做的事情,以便以后回顾。
主要研究内容
- 研究了TLS1.3还未标准化之前,各个草案的部署情况(主动获取)
- 标准化之后TLS1.3的部署情况(主动获取)
- 被动检测TLS1.3的链接,了解在实际中的应用情况,以及统计某些数据与主动收集的数据对比观察结果(被动获取)
- 安卓设备上部署TLS1.3的情况,其中也探究了一部分与主动获取数据的对比(被动获取)
总结一下,主要研究了TLS1.3部署的演变。当然是从各个方面进行考察,从不同的角度进行分析,如:主动测量与被动检测的呼应、各个互联网巨头的ip范围内演变及支持情况、与TLS1.2部署速度的对比、不同地域的部署情况及原因。
通过这些分析作者提出结论:
- 互联网的集中化是快速部署TLS1.3的最终原因
- 互联网巨头对于TLS1.3的部署发挥着重要作用
评审员认为,这篇文章中作者不仅考量了web数据集,还研究了移动数据集,从多个生态系统对TLS1.3做了研究,这一点是比较好的。
数据集信息
作者收集的数据集的一个宏观信息:
Active Scan
作者的主动扫描分为两个阶段:
- 2017.10 — 2019.05对TLS1.3从还未标准化之前的草案开始收集数据
- 2019.05 — 2019.11对TLS1.3标准化之后的内容收集数据
下面分为两部分介绍其使用工具及收集方法、研究内容
Active-scan-draft
当一个草案出现时,实现对其支持然后进行收集数据,时间间隔是:前一百万个域名每天收集一次,其它的域名列表每周收集一次,我觉得这也是时间限制所导致的,因为收集数据要花一些时间。
使用到的工具,我最后会给出一个链接
使用的工具
-
zgrab
作者们修改了zmap的子工具zgrab,并生成一些对应时间执行程序,目的是支持新颁布的草案,使得在扫描的过程中能够支持。当无法确定草案的颁布时间时,会判断server是否支持一些扩展来判断。 -
brotli
一个不得不提起的工具,用zgrab扫描出的结果为json
文件,我们要进行压缩,压缩软件就是brotli
。
结果分析
主要探究作者的研究方法:
-
作者给出不同域中各个草案的支持情况图,并对结果做出重点说明。
如:Alexa Top1M
支持的情况对比其它域; -
作者还将结果与被动检测收集的数据进行对比分析
如: 观察在Android
和Notary
,说明具有相似的支持情况 -
同时作者还将统计结果与Google对
draft22
部署的测量结果对比
这也提醒了我,分析结果要和其它对比分析。 -
并且将一些出现的现象与实际情况联系起来
Active-scan-rfc
对标准化之后的TLS1.3主动收集数据
使用的工具
-
Massdns
这个工具是用来解析域名,并得到对应的IPV4
地址的工具 -
Zmap
使用这个工具获取443端口打开的ip地址 -
Goscanner
作者通过修改这个工具来获取TLS的握手数据
结果分析
- 不同国家地区的TLS1.3部署情况,并分析排名靠前和排名靠后的原因
- 不同域中TLS各个版本占比情况。
- 不同互联网巨头从主动和被动数据两个方面分析TLS1.3占比情况
Alexa Top100k 在各个行业中TLS1.3占比情况
工具:
VirusTotal
通过使用这个工具来对域进行分类。
然后得出一些比较有意思的结论。
A record
-
域名解析:
把域名指向网站所在的服务器ip地址。 -
record
域名解析时会添加解析记录:A
记录
将域名指向一个IPv4地址。AAAA
记录
将域名指向一个IPv6地址。
被动数据检测
主要是通过一个
这个网站收集的数据进行分析。
工具
- Zeek
一个强大的网络流量分析和安全检测框架
具体的分析方法,我还没有尝试过。
结果分析
这篇论文中,作者主要将主动获取数据域被动检测数据进行对比分析,基本前面介绍的内容中已经涵盖很多分析结果了。
Android 数据
途径
- lumen
一款可以检测流量的应用。
通过这个app收集Android中从2015开始的数据。
分析结果同被动获取数据一样,在前面中已经涉及。
互联网巨头的纵向分析
发现了一些特殊的互联网公司以及主要的几个互联网公司,结合具体的一些措施对草案部署以及正式标准化之后TLS1.3的部署情况做了详细分析。
总结
作者也是从别的文章中得到的提醒采用域这种方式来进行分析,以及分析移动端的数据,并且使用的工具也都是其它人的工具,但是做了一定的修改,被动检测的数据集也是这样的来的,所以还需要多看些文章,找到一些新的分析点来做会比较好,现在面临的一大难题还是动手方面吧,复现论文比较难,慢慢做吧。