【python】打造一款自动扫描全网漏洞的扫描器

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/lzy98/article/details/80078764

这是一款和刘老师一起写的网安类别扫描器。基本原理是由Python+Mysql搭建的扫描器,实现自动无限永久爬行采集网站链接,自动化漏洞扫描检测。目的是挂机就能实现自动化发掘敏感情报,亦或是发现网站的漏洞或者隐藏可利用的漏洞。
    早在17年11月份的时候就有这个想法,可是一直没有去做,后来快到除夕前几天才正式开始整个软件工程的设计。当时的想实现的功能比较简单,就是能做到无限采集到网站使用的CMS,比如www。xx。com使用的是DEDECMS,那么我就把www。xx。com|dedecms这样的数据存到数据库里面,如果下次dedecms爆出新的漏洞后,我能在第一时间内发现哪些网站存在这个漏洞。那么这个软件工程的核心功能就必须满足以下的需求。

  1. 能无限爬行采集互联网上存活的网址链接
  2. 能对采集到的链接进行扫描验证
  3. Mysql数据库和服务器的负载均衡处理

    当然如果只是只检测CMS类型然后保存到数据库肯定是不够的,这样简单的功能并没有多大的优势,于是我选择了加入下列漏洞的扫描验证。

  1. 添加备份文件扫描功能
  2. 添加SVN/GIT/源码泄漏扫描功能,其中包括webinfo信息扫描
  3. 添加编辑器漏洞扫描功能
  4. 添加SQL注入漏洞的自动检测功能
  5. 添加使用Struts2框架的网站验证功能(居心叵测)
  6. 添加xss扫描检测功能(暂未实现)
  7. 添加扫描网站IP并且扫描危险端口功能
  8. 添加外链解析漏洞检测功能(暂未实现)
  9. 暂时想不到别的了,如果你有好的建议请联系我~

结果展示

    如图展示的都是扫描到的备份文件,敏感信息泄漏,注入,cms类型识别,st2框架,端口开放等等,挂机刷洞,基本上只要漏洞报告写得详细一点,勤快多写点,都可以通过审核,刷洞小意思,刷排名之类的都不在

没有更多推荐了,返回首页