使用 wireshark lua 插件处理大报文的注意事项

       我在这篇文章中曾经说明了如何使用wireshark的lua脚本进行大报文的切割,其实这里面隐含存在着一个问题。由于lua脚本的执行是通过tshark -X lua_script:createNewPcap.lua -r xx.pcap -q 这种形式来执行的,那么就存在一个wireshark遗留很久的问题。那就是,当报文很大的时候,通过tshark进行读取会导致其占用的内存大小超过本机内存,这个时候就会报memory erro的错误。关于为什么会有这样的问题,在这篇文章中有详细的论述。具体原因就是wireshark需要内存来存储报文的元数据信息以及流的状态信息,以用于报文的重组,我们看到的wireshark显示的重组信息,都是由这些信息来提供的。举个例子来说https中的server hello响应信息一般有4k字节左右,在以太网中是分包传输的。我们打开wireshark之所以能够看到wireshark将这些分开的报文组装成为最后的server hello信息以及certificate信息,就是因为wireshark在内存中存储了流的状态信息以及一些元信息,当然报文也是存在内存中的,方便后续报文的重组。内存的使用情况主要取决于报文的数量,报文类型(大报文还是小报文片),以及wireshark具体的设置。

       关于大报文的情形要分为离线和在线两种情况。

       1,针对在线的情况,如果仅仅是抓报,不做分析可以使用dumpcap来执行。类似这种形式dumpcap -i 1 -w test.pcap 。如果需要更多分析过滤作用的话,tshark是提供了-b参数来解决在线长时间抓取报文的问题。据说有人曾连续抓了一个星期200G 的报文没有出现问题,参见这里。可以通过man tshark找到-b参数的使用方法。类似这样
tshark -i eth0 -Y “http.host == \“baidu\””-w baidu.pcap -b filesize:1000000,当然-b参数的使用是在1.12版本之后的,具体有没有成为release版本,参考这里

       2,针对离线的情况,由于tshark并没有像在线的那样提供了-b参数来清除内存中的数据,wireshark官方在这里介绍了几种方法,比如增加内存,包括物理内存和虚拟内存等等,个人觉得增加虚拟内存是比较理想的方法,虽然损失了处理的速度,但是至少内存可以扩展的比较大来应对大报文的情形。当然也可在libpcap等库的基础上来编写处理程序,那么耗时较长,在这里给出了一种解决的办法。

       如果有好的解决办法的,欢迎多交流。

       本文为CSDN村中少年原创文章,转载记得加上小尾巴偶,博主链接这里

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

村中少年

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值