极客工具常用宝藏工具专为捡洞而生的爬虫神器,红队OA安全工具,强大的日志分析软件

极客工具常用宝藏工具专为捡洞而生的爬虫神器,红队OA安全工具,强大的日志分析软件。

在这里插入图片描述

专为捡洞而生的爬虫神器

毒液爬行器Venom-Crawle:为Venom-Transponder专为捡洞而生的一个爬虫神器。

安装依赖:

go mod tidy # go mod依赖加载
cd cmd
go build . #然后把cmd.exe重命名一下就好

使用说明

不再加入Gospider原因:

感觉Katana+Crawlergo的爬行结果以及足够完整,再加入Gospider可能会造成时间的大量决策,个人比较倾向于基于Chromium的爬行结果,参数可靠。

功能介绍:
为了使爬虫爬行的URL问题完整,所以使用Katana+Crawlergo的方法结合获取所有符合的URL,思路是:先由katana爬行,将爬行的结果最终挖掘Crawlergo再进行二次爬取,左侧脚踩右脚旋转升天。
如果配置-proxy将流量代理给海绵环境监听的端口(比如:Venom-Transponder、Xray、w13scan等)
这里防止为了爬偏,爬行规则就是输入的URL路径,不会爬行其他域名以及子域名
Katana和Crawlergo的结果都会单独保存在txt中,并且result-all.txt是去重后的最终结果


 -headless   是否让爬行时候headless结果可见
 -chromium   如果在代码执行过程中报查询不到环境中的浏览器, 将Chrome或者Chromium路径填入即可
 -headers    爬行要求带入的JSON字符串格式的自定义请求头,默认只有UA
 -maxCrawler URL启动的任务最大的爬行个数,这个针对Crawlergo配置
 -mode       爬行模式,simple/smart/strict,默认smart,如果simple模式katana不爬取JS解析的路径
 -proxy      配置代理地址,支持扫描器、流量转发器、Burp、yakit等
 -blackKey   黑名单关键词,用于避免被爬虫执行危险操作,用,分割,如:logout,delete,update
 -url        执行爬行的单个URL
 -urlTxtPath 如果需求是批量爬行URL,那需要将URL写入txt,然后放txt路径
 -encodeUrlWithCharset  是否对URL进行编码,Crwalergo的功能但katana跑完的结果走Crawlergo后也会被编码
 -depth      爬行深度,默认3

不联动其他工具:

.\Venom.exe -urlTxtPath .\text.txt
.\Vebom.exe -url    https://www.sf-express.com

在这里插入图片描述
在这里插入图片描述

联动其他工具:

.\Venom.exe -urlTxtPath .\text.txt -proxy http://127.0.0.1:9090
.\Vebom.exe -url  https://www.sf-express.com -proxy http://127.0.0.1:9090

在这里插入图片描述

上图的使用思路将,爬虫爬取的URL通过代理转发器给流量转发器,再由流量转发器转发器给代理工具/漏扫。

如果想在爬取过程中查看爬行效果的话,可以在命令后面带上-headless就会启动浏览器界面。

在这里插入图片描述

这还不开启捡洞模式???
注意事项

浏览器上下文创建错误:exec: “google-chrome”: executable file not found in %path%:

浏览说明设备没有安装或者%path%环境里面没有chromium的地址(用edge/chrome/chromium都可以解决)。

在这里插入图片描述
在这里插入图片描述

这里搭配-chromium参数即可。

下载地址

https://github.com/z-bool/Venom-Crawler


红队OA安全工具

在这里插入图片描述

0x2 NaturalTeeth工具获取

https://github.com/ddwGeGe/NaturalTeeth


强大的日志分析软件

0x01 AWStats介绍

在日常web服务器的运行中,记录了大量的客户机访问的信息,而如何快捷地知道此刻web服务器的访问及运行情况,如每天的访问IP数量、点击量最大的页面、每日的访问高峰时间段等信息呢?

在这里插入图片描述

AWStats 是一个免费的强大而有个性的工具,带来先进的网络,流量,FTP 或邮件服务器统计图。此日志分析器可作为CGI 或从命令行工作,并在几个图形网页 中显示您的日志包含的所有可能信息。

它使用部分信息文件能够经常快速地处理大型日志文件。它可以分析来自所有主要服务器工具的日志文件,如 Apache 日志文件(NCSA 组合/XLF/ELF 日志格式或通用/CLF 日志格式)、WebStar、IIS(W3C 日志格式)和许多其他 web、代理、wap、流媒体服务器、邮件服务器和一些 ftp 服务器。

0x02 AWStats获取

AWStats 官网:https://awstats.sourceforge.io/AWStats 下载地址: https://awstats.sourceforge.io/#DOWNLOAD

  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

代码讲故事

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值